Samsungs Galaxy S25 og S25+ smarttelefoner kan få en Dimensity 9400-brikke som støtter den multimodale AI-modellen Gemini Nano

Av: Vlad Cherevko | 08.10.2024, 14:59
Samsungs Galaxy S25 og S25+ smarttelefoner kan få en Dimensity 9400-brikke som støtter den multimodale AI-modellen Gemini Nano

Tidligere kunngjorde Google, sammen med Google Pixel 9-smarttelefoner, en oppdatert Gemini Nano AI-modell med multimodalitet, som for øyeblikket bare er tilgjengelig på enheter i Pixel 9-serien. Men ifølge nylige rapporter vil den nye Gemini Nano-modellen snart bli utvidet til enheter fra andre produsenter som Samsung.

Her er hva vi vet

MediaTek har kunngjort at deres nye flaggskip Dimensity 9400-brikkesett vil bli optimalisert for Gemini Nano's multimodale AI. Det er ennå ikke kjent nøyaktig hvilke smarttelefoner som blir de første som får den nye funksjonen med denne brikken, men ifølge hint fra Google DeepMind kan det være smarttelefonene i Samsung Galaxy S25-serien.

Den multimodale Gemini Nano, utviklet med Google DeepMind, gjør det mulig for enheter å bedre forstå konteksten til tekst, bilder, lyd og video. Pixel 9-smarttelefonene er drevet av funksjonen, med apper som Pixel Screenshots, Pixel Recorder, Talkback og andre.

Tidligere har Google DeepMind nevnt på sin blogg at MediaTek bruker deres teknologi for å akselerere utviklingen av sine mest avanserte brikker, for eksempel det nye flaggskipet Dimensity, som vil bli brukt i Samsungs smarttelefoner.

Siden Samsung ikke har gitt ut en smarttelefon med flaggskipet Dimensity-brikken før nå, refererte det mest sannsynlig til de kommende flaggskipene Galaxy S25 og S25+, ettersom Galaxy S25 Ultra vil være basert på en annen flaggskipbrikke, Snapdragon 8 Gen 4. Bruken av Dimensity 9400 kan lindre noen av Exynos 2500s produksjonsproblemer og bringe Gemini Nanos multimodale evner til de kommende flaggskipene i S25-serien.

Kilde: @negativeonehero, Google DeepMind

Gå dypere:

Multimodalitet i forbindelse med kunstig intelligens refererer til et systems evne til å behandle og integrere informasjon fra ulike typer data eller modaliteter. Et multimodalt system kan for eksempel analysere tekst, bilder, lyd og video samtidig for bedre å forstå og svare på brukernes spørsmål.

Dette gir mulighet for mer komplekse og intuitive interaksjoner, ettersom systemet kan bruke ulike informasjonskilder til å gi et mer nøyaktig og kontekstualisert svar. Stemmeassistenter som kan gjenkjenne tale og samtidig analysere visuelle data, er et eksempel på multimodale systemer.