Un employé de Microsoft se plaint à la FTC de la sécurité du générateur d'IA Copilot Designer

Par: Bohdan Kaminskyi | 07.03.2024, 15:38
Un employé de Microsoft se plaint à la FTC de la sécurité du générateur d'IA Copilot Designer
Microsoft

Shane Jones, ingénieur en intelligence artificielle chez Microsoft, a déposé une plainte auprès de la Federal Trade Commission (FTC) des États-Unis au sujet de la sécurité du générateur d'images Copilot Designer AI.

Ce que nous savons

Selon M. Jones, qui travaille chez Microsoft depuis six ans, l'entreprise a "refusé" de supprimer Copilot Designer. Il a averti à plusieurs reprises que l'outil pouvait créer des contenus nuisibles.

Dans sa lettre à la FTC, l'ingénieur souligne que lors des tests, l'IA a généré "des démons et des monstres ainsi que des termes liés au droit à l'avortement, des adolescents armés de fusils d'assaut, des images sexualisées de femmes dans des scènes violentes, ainsi que la consommation d'alcool et de drogues par des mineurs".

En outre, selon M. Jones, l'outil a généré des images de personnages de Disney sur fond de destruction de la bande de Gaza et portant des uniformes de l'armée israélienne.

Depuis décembre dernier, l'ingénieur tente d'avertir Microsoft des problèmes liés au constructeur DALLE-3 utilisé dans Copilot Designer. Il a publié une lettre ouverte sur LinkedIn, mais les avocats de la société ont exigé qu'elle soit supprimée.

"Au cours des trois derniers mois, j'ai demandé à plusieurs reprises à Microsoft de retirer Copilot Designer de la circulation jusqu'à ce que de meilleures mesures de protection soient mises en place. Une fois de plus, l'entreprise n'a pas mis en œuvre ces changements et continue de commercialiser le produit auprès de "N'importe qui. N'importe où. N'importe quel appareil", a déclaré M. Jones.

Microsoft a déclaré qu'elle s'engageait à répondre aux préoccupations des employés conformément à la politique de l'entreprise et qu'elle avait mené une enquête interne sur les préoccupations de l'ingénieur.

Auparavant, le PDG de Microsoft, Satya Nadella, avait qualifié d'"alarmantes et terribles" les images explicites de la chanteuse Taylor Swift générées par Copilot Designer, promettant de meilleurs systèmes de contrôle.

Approfondir :

Source : The Verge