L'OpenAI a créé un groupe chargé d'évaluer les risques catastrophiques liés à l'IA
Mariia Shalabaieva/Unsplash
L'OpenAI a annoncé la création d'une nouvelle équipe chargée d'atténuer les risques potentiellement dangereux liés à l'intelligence artificielle.
Voici ce que nous savons
L'équipe de préparation surveillera, évaluera et préviendra les problèmes graves que l'IA peut causer. Il s'agit notamment des menaces nucléaires, des armes biologiques, de la tromperie humaine et des cyberattaques.
L'OpenAI note que la nouvelle équipe élaborera des politiques de développement de l'IA fondées sur les risques. Aleksander Madry, un expert du MIT en apprentissage automatique, a été nommé à la tête de l'équipe.
Selon l'OpenAI, les modèles d'IA avancés peuvent apporter des avantages mais comportent également des risques croissants. Le PDG de l'entreprise, Sam Altman, a déjà mis en garde contre les conséquences catastrophiques potentielles de l'IA et a exhorté les gouvernements à prendre cette technologie aussi au sérieux que les armes nucléaires.
Source : OpenAI OpenAI