Los smartphones Galaxy S25 y S25+ de Samsung podrían contar con un chip Dimensity 9400 compatible con el modelo de IA multimodal Gemini Nano

Por: Vlad Cherevko | 08.10.2024, 13:08

Anteriormente, Google, junto con los smartphones Google Pixel 9, anunció un modelo actualizado de Gemini Nano AI con multimodalidad, que actualmente solo está disponible en los dispositivos de la serie Pixel 9. Pero según informes recientes, el nuevo modelo Gemini Nano pronto se extenderá a dispositivos de otros fabricantes como Samsung.

Esto es lo que sabemos

MediaTek ha anunciado que su nuevo chipset insignia Dimensity 9400 estará optimizado para la IA multimodal del Gemini Nano. Aún no se sabe exactamente qué teléfonos inteligentes serán los primeros en incorporar esta nueva función con este chip, pero según las pistas de Google DeepMind, podrían ser los teléfonos inteligentes de la serie Samsung Galaxy S25.

El Gemini Nano multimodal, desarrollado con Google DeepMind, permite a los dispositivos comprender mejor el contexto de texto, imágenes, audio y vídeo. Los smartphones Pixel 9 cuentan con esta función, con apps como Pixel Screenshots, Pixel Recorder y Talkback, entre otras.

Anteriormente, Google DeepMind mencionó en su blog que MediaTek está utilizando su tecnología para acelerar el desarrollo de sus chips más avanzados, como el nuevo buque insignia Dimensity, que se utilizará en los smartphones de Samsung.

Dado que Samsung no ha lanzado un smartphone con el chip insignia Dimensity hasta ahora, lo más probable es que se refiriera a los próximos buques insignia Galaxy S25 y S25+, ya que el Galaxy S25 Ultra se basará en otro chip insignia, el Snapdragon 8 Gen 4. El uso de Dimensity 9400 podría aliviar algunos de los problemas de producción del Exynos 2500 y llevar las capacidades multimodales de Gemini Nano a los próximos buques insignia de la serie S25.

Fuente: @negativeonehero, Google DeepMind

Profundiza:

La multimodalidad en el contexto de la inteligencia artificial se refiere a la capacidad de un sistema para procesar e integrar información procedente de diferentes tipos de datos o modalidades. Por ejemplo, un sistema multimodal puede analizar simultáneamente texto, imágenes, audio y vídeo para comprender y responder mejor a las consultas de los usuarios.

Esto permite interacciones más complejas e intuitivas, ya que el sistema puede utilizar distintas fuentes de información para dar una respuesta más precisa y contextualizada. Por ejemplo, los asistentes de voz capaces de reconocer el habla y analizar simultáneamente datos visuales son un ejemplo de sistemas multimodales.