Samsungs Galaxy S25 und S25+ Smartphones könnten einen Dimensity 9400 Chip erhalten, der das multimodale KI-Modell Gemini Nano unterstützt
Zuvor hatte Google zusammen mit den Google Pixel 9-Smartphones ein aktualisiertes Gemini Nano AI-Modell mit Multimodalität angekündigt, das derzeit nur auf Geräten der Pixel 9-Serie verfügbar ist. Aber nach jüngsten Berichten wird das neue Gemini Nano-Modell bald auf Geräte von anderen Herstellern wie Samsung erweitert werden.
Was bekannt ist
MediaTek hat angekündigt, dass ihr neuer Flaggschiff-Chipsatz Dimensity 9400 für die multimodale KI des Gemini Nano optimiert sein wird. Es ist noch nicht genau bekannt, welche Smartphones als erste die neue Funktion mit diesem Chip erhalten werden, aber laut Hinweisen von Google DeepMind könnten es die Smartphones der Samsung Galaxy S25-Serie sein.
Der multimodale Gemini Nano, der mit Google DeepMind entwickelt wurde, ermöglicht es Geräten, den Kontext von Text, Bildern, Audio und Video besser zu verstehen. Die Pixel 9-Smartphones sind mit dieser Funktion ausgestattet, mit Apps wie Pixel Screenshots, Pixel Recorder, Talkback und anderen.
Zuvor hatte Google DeepMind in seinem Blog erwähnt, dass MediaTek seine Technologie nutzt, um die Entwicklung seiner fortschrittlichsten Chips zu beschleunigen, wie z. B. das neue Flaggschiff Dimensity, das in Samsung-Smartphones zum Einsatz kommen wird.
Wie konnte ich das übersehen ???? https://t.co/rRCQfQdqTW pic.twitter.com/eNKjv0cS4L
- sawtooth special edition (@negativeonehero) October 7, 2024
Da Samsung bisher noch kein Smartphone mit dem Flaggschiff-Dimensity-Chip veröffentlicht hat, ist es sehr wahrscheinlich, dass es sich um die kommenden Flaggschiffe Galaxy S25 und S25+ handelt, da das Galaxy S25 Ultra auf einem anderen Flaggschiff-Chip, dem Snapdragon 8 Gen 4, basieren wird. Die Verwendung des Dimensity 9400 könnte einige der Produktionsprobleme des Exynos 2500 lindern und die multimodalen Fähigkeiten des Gemini Nano in die kommenden Flaggschiffe der S25-Serie bringen.
Quelle: @negativeonehero, Google DeepMind
Für diejenigen, die mehr wissen wollen
Multimodalität im Kontext der künstlichen Intelligenz bezieht sich auf die Fähigkeit eines Systems, Informationen aus verschiedenen Datentypen oder Modalitäten zu verarbeiten und zu integrieren. So kann ein multimodales System beispielsweise gleichzeitig Text, Bilder, Audio und Video analysieren, um Benutzeranfragen besser zu verstehen und zu beantworten.
Dies ermöglicht komplexere und intuitivere Interaktionen, da das System verschiedene Informationsquellen nutzen kann, um eine genauere und kontextbezogenere Antwort zu geben. Ein Beispiel für multimodale Systeme sind Sprachassistenten, die Sprache erkennen und gleichzeitig visuelle Daten analysieren können.