Studie: Sprachmodelle der künstlichen Intelligenz zeigen impliziten Rassismus gegenüber afroamerikanischem Englisch

Von: Nastya Bobkova | 08.03.2024, 01:07

Neue Forschungsergebnisse zeigen, dass große KI-Sprachmodelle und OpenAIs Version von ChatGPT versteckte rassistische Vorurteile gegenüber afroamerikanischem Englisch haben.

Was bekannt ist

Die festgestellten Vorurteile zeigen sich nicht nur in diesem Bereich, sondern auch bei der Besetzung von Stellen und der Beurteilung der Schuld von Verdächtigen. Bei Justizbeamten, die in der Regel keinen offenen Rassismus zeigen, wurden bestimmte implizite Vorurteile festgestellt, die dank der künstlichen Intelligenz sichtbar wurden.

Die Autoren der Studie betonen die potenziellen Risiken des Einsatzes solcher KI-Modelle in Bereichen, in denen sie bereits angewendet werden, wie etwa in der Wirtschaft und im Recht. Sie fordern weitere Forschungen und die Klärung dieser Fragen, um weitere diskriminierende Erscheinungen in Zukunft zu verhindern.

Quelle: Gizmodo