Les États-Unis et le Royaume-Uni conviennent de tester conjointement la sécurité des modèles d'intelligence artificielle

Par: Bohdan Kaminskyi | 02.04.2024, 19:12

Steve Johnson/Unsplash

Les gouvernements américain et britannique ont signé un protocole d'accord visant à créer une approche commune pour évaluer de manière indépendante la sécurité des modèles d'intelligence artificielle avancés tels que ChatGPT et DALL-E.

Ce que nous savons

Dans le cadre de ce partenariat, l'AI Safety Institute du Royaume-Uni et son homologue américain, annoncé précédemment par la vice-présidente Kamala Harris, développeront conjointement des suites de tests pour l'évaluation des risques et la sécurité des modèles d'intelligence artificielle de pointe.

Les parties prévoient de partager leur expertise technique, leurs informations et leur personnel. L'un des premiers objectifs sera de mener des tests conjoints sur un modèle d'IA accessible au public.

La ministre britannique des sciences, Michelle Donelan, a souligné la nécessité d'agir rapidement, car une nouvelle génération de modèles d'IA devrait voir le jour l'année prochaine, dont les capacités ne sont pas encore connues.

Ce partenariat est le premier accord bilatéral au monde sur la sécurité de l'IA, même si les États-Unis et le Royaume-Uni ont l'intention d'impliquer d'autres pays à l'avenir.

La secrétaire américaine au commerce, Gina Raimondo, a déclaré que ce partenariat accélérerait le travail des institutions chargées d'évaluer les risques de l'IA pour la sécurité nationale et la société dans son ensemble, en permettant de mieux comprendre les systèmes d'IA et de formuler des recommandations rigoureuses.

Retour en arrière

Outre les tests et les évaluations, les gouvernements du monde entier élaborent également des règles pour réglementer les technologies de l'IA. La Maison Blanche a signé un décret visant à garantir que les agences fédérales n'utilisent que des outils d'IA sûrs, et le Parlement européen a approuvé une législation radicale interdisant les systèmes d'IA manipulateurs et discriminatoires, et exigeant l'étiquetage des contenus générés par l'IA.

Source : Engadget Engadget