L'OpenAI renforce les contrôles sur le développement de modèles d'IA potentiellement dangereux
Mariia Shalabaieva/Unsplash
OpenAI, le développeur du populaire chatbot ChatGPT, met en place des contrôles supplémentaires pour réduire le risque de création de modèles d'intelligence artificielle malveillants.
Voici ce que nous savons
OpenAI crée notamment un groupe consultatif spécial sur la sécurité. Il évaluera les risques liés aux modèles développés dans plusieurs domaines : cybersécurité, désinformation, autonomie, etc.
Le groupe pourra faire des recommandations à la direction de l'entreprise sur l'interdiction ou la restriction de certains projets. En outre, le conseil d'administration d'OpenAI aura le droit d'opposer son veto aux décisions de la direction générale.
Selon les déclarations de l'entreprise, ces mesures permettront de mieux identifier les menaces potentielles aux premiers stades du développement. Toutefois, les experts notent que l'efficacité réelle du système dépend de la politique de la direction de l'OpenAI elle-même.
Auparavant, les partisans d'une limitation des projets d'IA à risque étaient exclus du conseil d'administration. Or, les nouveaux membres du conseil sont connus pour leurs positions plutôt commerciales. On ne sait pas dans quelle mesure ils seront enclins à utiliser le droit de veto dans la pratique.
Source : TechCrunch TechCrunch