L'OpenAI a reconnu que le GPT-4 pourrait, avec un "risque minimal", contribuer à la mise au point d'armes biologiques.
Mariia Shalabaieva/Unsplash
OpenAI a mené une étude pour évaluer les risques liés à l'utilisation de son nouveau modèle GPT-4 pour développer des armes biologiques. Les résultats ont montré que l'accès aux capacités de l'IA augmente "au moins de manière marginale" l'efficacité de la collecte d'informations pour développer des menaces biologiques.
Ce que nous savons
Cinquante biologistes et cinquante étudiants ont participé à l'expérience. Il leur a été demandé de trouver des informations sur la culture et la distribution de substances dangereuses. La moitié des sujets a eu accès à une version spéciale de GPT-4 sans restrictions, l'autre moitié a utilisé l'internet normal.
La comparaison des résultats a montré une légère augmentation de la précision et de l'exhaustivité des réponses dans le groupe ayant accès à l'IA. Les chercheurs de l'OpenAI ont conclu qu'il y avait un risque "au moins mineur" à utiliser le modèle pour collecter des données sur le développement d'armes biologiques.
Des experts et des décideurs politiques ont déjà exprimé leur inquiétude quant à l'utilisation potentielle de robots de conversation pour développer des menaces biologiques. En octobre, le président des États-Unis a demandé au ministère de l'énergie de veiller à ce que les systèmes d'IA ne présentent pas de risques chimiques et biologiques. L'équipe de l'OpenAI s'efforce désormais de minimiser ces risques à mesure que la technologie de l'IA progresse.
Source de l'information : OpenAI