Le Pentagone peut rompre le contrat avec Anthropic : le conflit autour de l'utilisation de l'IA atteint un nouveau niveau

Par: Russell Thompson | aujourd'hui, 16:29
IA en Défense : Sommes-nous Prêts pour la Responsabilité ? L'IA responsable - un problème pour la défense ?. Source: AI

Le ministère de la Défense des États-Unis envisage de cesser toute collaboration avec la société Anthropic et pourrait même la considérer comme un « risque pour la chaîne d'approvisionnement ». C'est ce qu'affirme Axios en s'appuyant sur des sources familières avec les négociations. Le différend porte sur la façon dont les militaires peuvent utiliser le système d'intelligence artificielle Claude.

Ce que l'on sait

Selon la publication, les négociations entre les parties se poursuivent depuis plusieurs mois et sont tendues. Anthropic insiste sur des restrictions : l'entreprise ne veut pas que ses technologies soient utilisées pour la surveillance de masse des citoyens ou pour la création d'armes capables d'agir sans intervention humaine. De son côté, le gouvernement américain cherche à pouvoir utiliser l'IA « pour toute fin légitime ».

Si le Pentagone reconnaît officiellement qu'Anthropic représente un risque pour la chaîne d'approvisionnement, les sous-traitants travaillant avec les militaires seront contraints de cesser toute collaboration avec cette entreprise.

En réponse, Anthropic a déclaré qu'elle menait des « négociations productives » et restait déterminée à utiliser l'IA dans l'intérêt de la sécurité nationale. L'année dernière, la société a obtenu un contrat de deux ans pour développer des prototypes de Claude Gov et des solutions d'entreprise pour les structures gouvernementales.

Cette situation pourrait également influencer les futures négociations du Pentagone avec d'autres développeurs d'IA, y compris OpenAI, Google et xAI. Les désaccords autour de Claude illustrent le conflit croissant entre les principes d'utilisation responsable de l'IA et les intérêts du secteur de la défense.

Source: Axios