Amazon podría lanzar pronto su propio modelo de IA multimodal

Amazon de a poco está integrando más IA en sus servicios, y es así que Alexa se ha hecho más inteligente cada vez, pero ahora se habla de un propio modelo de lenguaje de IA con características de multimodal lo que podría traer la compañía.

Amazon prepara su propia IA multimodal

Según podemos ver en Reuters, se informa de que el nuevo modelo puede procesar imágenes y vídeos y buscar escenas visuales específicas a partir de una entrada textual. Esta IA tiene un propósito claro, y es que Amazon quiere reducir su dependencia de Claude de Anthropic.

Amazon ha invertido 8.000 millones de dólares en la startup estadounidense de IA a cambio de una participación minoritaria y de convertirse en el principal socio de servicios en la nube y de formación. Las dos empresas colaboran estrechamente para mejorar los chips de IA Trainium e Inferentia de Amazon.

El chatbot Claude de Anthropic está integrado en Amazon Web Services (AWS) y Amazon Bedrock. Según el informe, «Olympus» puede buscar imágenes o escenas basándose en sencillas indicaciones de texto, como un tiro ganador de béisbol. Amazon podría anunciar el modelo tan pronto como la semana que viene, así que seguramente pronto habrá novedades.

Síguenos en Google News