OpenAI a créé une équipe chargée d'intégrer les idées du public dans la gestion des modèles d'IA.
Mariia Shalabaieva/Unsplash
OpenAI a annoncé la création d'un nouveau groupe de recherche, Collective Alignment, qui développera un système de collecte et de prise en compte de l'opinion publique lors de la prise de décisions concernant le comportement des modèles d'intelligence artificielle de l'entreprise.
Ce que nous savons
Selon les développeurs, Collective Alignment veillera à ce que les futurs modèles d'IA soient conformes aux valeurs et aux attentes de la société.
La création de l'équipe est le résultat d'un programme de subventions lancé l'année dernière qui a financé des expériences visant à introduire un contrôle public et des "processus démocratiques" dans la gestion des systèmes d'IA.
OpenAI publie désormais le code et les résultats des travaux des bénéficiaires. À l'avenir, l'équipe Collective Alignment intégrera les prototypes prometteurs dans les produits et services de l'entreprise.
Les développeurs affirment que l'initiative vise à rendre l'IA d'OpenAI aussi utile et sûre que possible pour la société. Cependant, certains experts notent la présence d'intérêts commerciaux et de risques de lobbying réglementaire de la part de l'entreprise.
Source : OpenAI