OpenAI gründet Red Teaming Network-Gruppe, um die Zuverlässigkeit seiner Modelle zu verbessern
OpenAI hat den Start des Red-Teaming-Network-Programms angekündigt, einer Gruppe von Experten, die die Risiken von Modellen der künstlichen Intelligenz bewerten und mindern werden.
Was bekannt ist
Laut OpenAI wird die Gruppe dabei helfen, Verzerrungen in Modellen wie DALL-E 2 und GPT-4 zu erkennen und Hinweise zu finden, die KI dazu veranlassen, Sicherheitsfilter zu ignorieren.
Bisher hat das Unternehmen auch Tester von Drittanbietern hinzugezogen, aber diese Arbeit wird nun formalisiert, um die Prüfungen mit Experten und Organisationen zu "vertiefen und zu erweitern".
Die Teilnehmer des Netzwerks werden in der Lage sein, sich untereinander über gemeinsame KI-Prüfungsprobleme auszutauschen. Allerdings wird nicht jeder, der an dem Projekt beteiligt ist, an neuen OpenAI-Produkten arbeiten.
Das Unternehmen lädt auch Experten aus verschiedenen Bereichen zur Teilnahme ein, darunter Linguistik, Biometrie, Finanzen und Gesundheitswesen. Vorherige Erfahrung mit KI-Systemen ist nicht erforderlich, aber die Geheimhaltungsvereinbarung könnte andere Forschungsarbeiten beeinträchtigen, warnte OpenAI.
Quelle: OpenAI