OpenAI verschärft Kontrollen bei der Entwicklung potenziell gefährlicher KI-Modelle
Mariia Shalabaieva/Unsplash
OpenAI, der Entwickler des beliebten Chatbots ChatGPT, führt zusätzliche Kontrollen ein, um das Risiko der Erstellung bösartiger Modelle künstlicher Intelligenz zu verringern.
Was bekannt ist
OpenAI richtet insbesondere eine spezielle Sicherheitsberatungsgruppe ein. Sie wird die Risiken der entwickelten Modelle in verschiedenen Bereichen bewerten: Cybersicherheit, Fehlinformationen, Autonomie und andere.
Die Gruppe wird in der Lage sein, der Unternehmensleitung Empfehlungen zum Verbot oder zur Einschränkung bestimmter Projekte zu geben. Darüber hinaus wird der Verwaltungsrat von OpenAI das Recht haben, gegen Entscheidungen der Geschäftsleitung ein Veto einzulegen.
Nach Angaben des Unternehmens werden diese Maßnahmen es ermöglichen, potenzielle Bedrohungen in den frühen Entwicklungsstadien besser zu erkennen. Experten weisen jedoch darauf hin, dass die tatsächliche Wirksamkeit des Systems von der Politik des OpenAI-Managements selbst abhängt.
Zuvor waren Befürworter einer Begrenzung riskanter KI-Projekte aus dem Vorstand ausgeschlossen worden. Und die neuen Vorstandsmitglieder sind für ihre eher kommerzielle Haltung bekannt. Inwieweit sie geneigt sein werden, das Vetorecht in der Praxis zu nutzen, ist unbekannt.
Quelle: TechCrunch