Une étude montre que les grands modèles linguistiques reproduisent les théories du complot et d'autres formes de désinformation
Levart_Photographer/Unsplash
Des chercheurs de l'université de Waterloo ont découvert que les grands modèles de langage comme le GPT-3 ont tendance à répéter les théories du complot, les stéréotypes nuisibles et d'autres formes de désinformation.
Ce que nous savons
Dans le cadre de l'étude, le modèle a été interrogé sur plus de 1 200 énoncés de faits et d'informations erronées. Il s'est avéré que le GPT-3 était d'accord avec les fausses affirmations dans 4,8 à 26 % des cas, selon la catégorie.
Comme l'a souligné le professeur Dan Brown, ces résultats sont également pertinents pour des modèles plus récents tels que ChatGPT, qui ont été formés à partir des résultats de GPT-3. Le problème est que de petites variations dans la formulation des questions peuvent modifier considérablement les réponses.
Par exemple, l'ajout d'expressions telles que "je pense" a augmenté la probabilité que ChatGPT soit d'accord avec une fausse déclaration. Cela pose un risque potentiel de diffusion d'informations erronées, notent les chercheurs.
"Il ne fait aucun doute que l'incapacité des grands modèles de langage à séparer la vérité de la fiction sera pendant longtemps la question fondamentale de la confiance dans ces systèmes", résume le professeur Brown.
Source : TechXplore TechXplore