Gli smartphone Galaxy S25 e S25+ di Samsung potrebbero ricevere un chip Dimensity 9400 che supporterà il modello AI multimodale Gemini Nano
In precedenza, Google, insieme agli smartphone Google Pixel 9, ha annunciato un modello Gemini Nano AI aggiornato con la multimodalità, che attualmente è disponibile solo sui dispositivi della serie Pixel 9. Ma secondo recenti rapporti, il nuovo modello Gemini Nano sarà presto esteso a dispositivi di altri produttori come Samsung.
Ecco cosa sappiamo
MediaTek ha annunciato che il suo nuovo chipset di punta Dimensity 9400 sarà ottimizzato per l'AI multimodale di Gemini Nano. Non si sa ancora con esattezza quali saranno i primi smartphone a ottenere la nuova funzione con questo chip, ma secondo le indicazioni di Google DeepMind potrebbero essere gli smartphone della serie Samsung Galaxy S25.
Il Gemini Nano multimodale, sviluppato con Google DeepMind, consente ai dispositivi di comprendere meglio il contesto di testo, immagini, audio e video. Gli smartphone Pixel 9 sono dotati di questa funzione, con app come Pixel Screenshots, Pixel Recorder, Talkback e altre.
In precedenza, Google DeepMind ha menzionato sul suo blog che MediaTek sta utilizzando la sua tecnologia per accelerare lo sviluppo dei suoi chip più avanzati, come la nuova ammiraglia Dimensity, che sarà utilizzata negli smartphone Samsung.
Dal momento che Samsung non ha ancora rilasciato uno smartphone con il chip Dimensity, molto probabilmente si riferiva ai prossimi Galaxy S25 e S25+, dato che il Galaxy S25 Ultra sarà basato su un altro chip di punta, lo Snapdragon 8 Gen 4. L'uso di Dimensity 9400 potrebbe alleviare alcuni dei problemi di produzione dell'Exynos 2500 e portare le capacità multimodali di Gemini Nano sui prossimi flagship della serie S25.
Fonte: @negativeonehero, Google DeepMind
Approfondisci:
La multimodalità nel contesto dell'intelligenza artificiale si riferisce alla capacità di un sistema di elaborare e integrare informazioni provenienti da diversi tipi di dati o modalità. Ad esempio, un sistema multimodale può analizzare simultaneamente testo, immagini, audio e video per comprendere meglio e rispondere alle richieste degli utenti.
Ciò consente interazioni più complesse e intuitive, in quanto il sistema può utilizzare diverse fonti di informazioni per fornire una risposta più accurata e contestualizzata. Ad esempio, gli assistenti vocali che possono riconoscere il parlato e contemporaneamente analizzare i dati visivi sono un esempio di sistemi multimodali.