Les smartphones Galaxy S25 et S25+ de Samsung pourraient être équipés d'une puce Dimensity 9400 qui prendrait en charge le modèle d'IA multimodale Gemini Nano.

Par: Vlad Cherevko | aujourd'hui, 13:08

Plus tôt, Google, en même temps que les smartphones Google Pixel 9, a annoncé une mise à jour du modèle Gemini Nano AI avec multimodalité, qui n'est actuellement disponible que sur les appareils de la série Pixel 9. Mais selon des rapports récents, le nouveau modèle Gemini Nano sera bientôt étendu aux appareils d'autres fabricants comme Samsung.

Voici ce que nous savons

MediaTek a annoncé que son nouveau chipset phare Dimensity 9400 sera optimisé pour l'IA multimodale de Gemini Nano. On ne sait pas encore exactement quels smartphones seront les premiers à bénéficier de cette nouvelle fonctionnalité avec cette puce, mais selon les indications de Google DeepMind, il pourrait s'agir des smartphones de la série Samsung Galaxy S25.

Le Gemini Nano multimodal, développé avec Google DeepMind, permet aux appareils de mieux comprendre le contexte du texte, des images, de l'audio et de la vidéo. Les smartphones Pixel 9 sont alimentés par cette fonctionnalité, avec des applications telles que Pixel Screenshots, Pixel Recorder, Talkback et d'autres.

Plus tôt, Google DeepMind a mentionné sur son blog que MediaTek utilise leur technologie pour accélérer le développement de ses puces les plus avancées, comme le nouveau fleuron Dimensity, qui sera utilisé dans les smartphones Samsung.

Étant donné que Samsung n'a pas encore sorti de smartphone équipé de la puce phare Dimensity, il est fort probable qu'elle fasse référence aux prochains Galaxy S25 et S25+, car le Galaxy S25 Ultra sera basé sur une autre puce phare, le Snapdragon 8 Gen 4. L'utilisation de la puce Dimensity 9400 pourrait atténuer certains problèmes de production de l'Exynos 2500 et apporter les capacités multimodales de Gemini Nano aux prochains modèles de la série S25.

Source : @negativeonehero, Google DeepMind

Approfondir :

Dans le contexte de l'intelligence artificielle, la multimodalité désigne la capacité d'un système à traiter et à intégrer des informations provenant de différents types de données ou de modalités. Par exemple, un système multimodal peut analyser simultanément du texte, des images, de l'audio et de la vidéo pour mieux comprendre les demandes des utilisateurs et y répondre.

Cela permet des interactions plus complexes et plus intuitives, car le système peut utiliser différentes sources d'information pour fournir une réponse plus précise et contextualisée. Les assistants vocaux capables de reconnaître la parole et d'analyser simultanément les données visuelles sont un exemple de systèmes multimodaux.