OpenAI hat eine Gruppe gebildet, um die katastrophalen Risiken von KI zu bewerten
Mariia Shalabaieva/Unsplash
OpenAI hat die Gründung eines neuen Teams angekündigt, das sich mit der Entschärfung potenziell gefährlicher Risiken im Zusammenhang mit künstlicher Intelligenz befasst.
Was bekannt ist
Das Preparedness-Team wird schwerwiegende Probleme, die KI verursachen kann, überwachen, bewerten und verhindern. Dazu gehören nukleare Bedrohungen, biologische Waffen, menschliche Täuschung und Cyberangriffe.
OpenAI stellt fest, dass das neue Team risikobasierte KI-Entwicklungsrichtlinien entwickeln wird. Aleksander Madry, ein MIT-Experte für maschinelles Lernen, wurde mit der Leitung des Teams beauftragt.
Laut OpenAI können fortschrittliche KI-Modelle Vorteile bringen, aber auch zunehmende Risiken mit sich bringen. Der CEO des Unternehmens, Sam Altman, hat bereits vor den möglichen katastrophalen Folgen von KI gewarnt und die Regierungen aufgefordert, diese Technologie genauso ernst zu nehmen wie Atomwaffen.
Quelle: OpenAI