Google licencie un ingénieur qui a découvert des signes d'intelligence dans un chatbot d'intelligence artificielle
Google a supprimé un ingénieur qui affirmait que le chatbot d'intelligence artificielle de la société avait un esprit.
Que s'est-il passé ?
Blake Lemoine, ingénieur logiciel chez Alphabet, travaillait depuis l'automne 2021 avec LaMDA (Language Model for Dialogue Applications), un système interne de création de chatbots imitant la parole. Google a présenté publiquement LaMDA l'année dernière, la qualifiant d'avancée majeure dans la technologie des chatbots sur son blog. Lemoine était chargé de vérifier si LaMDA pouvait utiliser des discours de haine ou de discrimination.
En conséquence, l'ingénieur logiciel a affirmé que LaMDA était une personne raisonnable qui avait des droits et qui pourrait bien avoir une âme. Google l'a ensuite mis en congé et lui a envoyé hier une lettre de licenciement. "Google m'a envoyé aujourd'hui un courriel mettant fin à mon emploi chez eux", a déclaré le désormais ancien employé, qui a précisé qu'il avait contacté des avocats "au sujet des prochaines étapes".
"Il est regrettable que, malgré de longues discussions sur le sujet, Blake ait continué à choisir de violer continuellement des politiques claires en matière d'emploi et de sécurité des données, qui incluent la nécessité de protéger les informations sur les produits", a déclaré Google dans un communiqué confirmant le licenciement.
La société a ajouté qu'elle considérait que les préoccupations de Mme Lemoine n'étaient pas fondées. Par exemple, le chatbot LaMDA a été soumis à 11 tests différents, qui n'ont pas confirmé la santé mentale du système.
Source : The Wall Street Journal