KI zur Erstellung von Aufklebern WhatsApp fügt bei Anfragen zu Palästina manchmal Waffen zu Bildern von Kindern hinzu
Im Messenger WhatsApp generiert ein KI-Sticker-Generator in einigen Fällen Bilder von Kindern mit Waffen, wenn palästinabezogene Eingabeaufforderungen eingegeben werden.
Was bekannt ist
In der Vergangenheit hat das Modell begonnen, Sticker zu produzieren, die dazu neigen, unangemessen gewalttätige oder grobe Bilder zu erzeugen, darunter auch Kindersoldaten. Medienberichten zufolge haben einige Mitarbeiter des Unternehmens das Problem durch Eingabeaufforderungen, die sich auf den Krieg in Israel beziehen, hervorgehoben und verschärft.
Meta-Sprecher Kevin McAlister sagte, dass sich das Unternehmen mit dem Problem befasst. Er fügte hinzu, dass das Unternehmen die KI-Funktionen nach und nach und auf der Grundlage des Nutzerfeedbacks weiter verbessern wird.
Meta hat bereits andere Fälle von KI-Voreingenommenheit erlebt. So fügte der Autoübersetzer von Instagram das Wort "Terrorist" in arabische Texte in Profilen ein. Der Fehler führte 2017 zur Verhaftung eines palästinensischen Mannes in Israel.
Quelle: The Guardian