OpenAI hat ein Team gebildet, das die Ideen der Öffentlichkeit in die Verwaltung von KI-Modellen einbezieht
Mariia Shalabaieva/Unsplash
OpenAI kündigte die Gründung einer neuen Forschungsgruppe Collective Alignment an, die ein System zur Sammlung und Berücksichtigung der öffentlichen Meinung bei Entscheidungen über das Verhalten der Modelle der künstlichen Intelligenz des Unternehmens entwickeln wird.
Was bekannt ist
Den Entwicklern zufolge soll Collective Alignment sicherstellen, dass künftige KI-Modelle mit den Werten und Erwartungen der Gesellschaft in Einklang stehen.
Die Gründung des Teams war das Ergebnis eines im vergangenen Jahr gestarteten Förderprogramms, das Experimente zur Einführung öffentlicher Kontrolle und "demokratischer Prozesse" in die Verwaltung von KI-Systemen finanzierte.
OpenAI veröffentlicht nun den Code und die Ergebnisse der Arbeit der Stipendiaten. In Zukunft wird das Collective Alignment-Team vielversprechende Prototypen in die Produkte und Dienstleistungen des Unternehmens integrieren.
Die Entwickler behaupten, dass die Initiative darauf abzielt, die OpenAI-KI so nützlich und sicher wie möglich für die Gesellschaft zu machen. Einige Experten weisen jedoch auf das Vorhandensein kommerzieller Interessen und die Gefahr von Lobbying durch das Unternehmen hin.
Quelle: OpenAI