L'OpenAI a dévoilé une stratégie de lutte contre la désinformation à temps pour les élections de 2024
Zac Wolff/Unsplash
OpenAI, concepteur du chatbot ChatGPT, a fait part de ses projets pour lutter contre la diffusion de fausses informations lors des campagnes électorales. Une attention particulière est accordée à l'amélioration de la transparence de la provenance des contenus.
Voici ce que nous savons
OpenAI a notamment l'intention d'utiliser des balises cryptographiques pour suivre la source des images générées par le système DALL-E 3. Cela permettra de mieux identifier les contenus générés par l'IA et d'évaluer leur crédibilité. Une approche similaire est déjà mise en œuvre par DeepMind pour marquer numériquement les contenus générés par l'IA.
En outre, ChatGPT affichera en temps réel des nouvelles du monde entier avec leur auteur et des liens. Les utilisateurs recevront également des informations officielles sur la procédure de vote de leur pays.
L'OpenAI a l'intention d'interdire les contenus visant à fausser ou à perturber le processus électoral, ainsi que les applications de campagne. Les utilisateurs pourront signaler les violations directement aux développeurs.
Selon les représentants de l'entreprise, si ces mesures sont couronnées de succès, elles seront étendues à d'autres pays. D'autres annonces sur la stratégie anti-fake sont attendues prochainement.
Source : OpenAI