Google gibt zu, dass der Gemini-Bildgenerator nicht richtig funktioniert

Von Vlad Cherevko | 23.02.2024, 13:24
Google gibt zu, dass der Gemini-Bildgenerator nicht richtig funktioniert

Die Nachrichten dieser Woche über Google sind nicht gerade zu Googles Gunsten ausgefallen. Grund dafür ist die Kritik an ihrem Chatbot Gemini. Es stellte sich heraus, dass er Bilder von Menschen, wie z.B. historischen Persönlichkeiten, nicht korrekt generierte, was dazu führte, dass die resultierenden Bilder ethnisch unterschiedlich waren. Und Google hat eine entsprechende Erklärung abgegeben.

Was bekannt ist

Google wurde wegen des Gemini-Chatbots heftig kritisiert, weil er ethnisch unterschiedliche Bilder generiert, auch wenn es keinen Sinn ergibt. Dies hat dazu geführt, dass Nutzer in den sozialen Medien Gemini als "absurd dumm" bezeichnet haben und Medien wie die New York Post Google und seinen Assistenten der künstlichen Intelligenz mit Kritik bombardiert haben. Für diejenigen, die es nicht wissen: Gemini ist Googles auf künstlicher Intelligenz basierender Chatbot, der früher unter dem Namen Bard bekannt war. Das Unternehmen schuf ihn, um mit ChatGPT zu konkurrieren. Vor kurzem hat das Unternehmen die Fähigkeiten des Bots um einen Bildgenerator erweitert.

Kritik an Gemini wurde laut, nachdem der Bildgenerator faktisch historisch ungenaue Bilder produzierte, darunter eine Frau als Papst, schwarz gekleidete Wikinger, weibliche NHL-Spielerinnen und "diverse" Versionen der amerikanischen Gründerväter.

Google räumte seinen Fehler in einer Erklärung ein, die am Mittwoch auf Twitter veröffentlicht wurde. Das Unternehmen erklärte, es arbeite daran, diese Art von Bildern sofort zu verbessern. Es fügte hinzu, dass die von der KI generierten Bilder von Gemini ein breites Spektrum an ethnisch unterschiedlichen Menschen erzeugen, was im Allgemeinen eine gute Sache ist, da es von Menschen auf der ganzen Welt genutzt wird. Aber hier verfehlt es das Ziel.

Google hat schon früher gesagt, dass seine KI-Tools experimentell sind und zu "Halluzinationen" neigen, bei denen sie falsche oder ungenaue Informationen als Reaktion auf die Eingabeaufforderungen der Nutzer vonanzeigen können.

Quelle: NewYorkPost