OpenAI ha presentato una strategia per combattere la disinformazione in tempo per le elezioni del 2024
Zac Wolff/Unsplash
OpenAI, sviluppatore del chatbot ChatGPT, ha condiviso i piani per contrastare la diffusione di informazioni false durante le campagne elettorali. Particolare attenzione è rivolta all'aumento della trasparenza della provenienza dei contenuti.
Ecco cosa sappiamo
In particolare, OpenAI intende utilizzare tag crittografici per tracciare la fonte delle immagini generate dal sistema DALL-E 3. Ciò consentirà di identificare meglio l'AI. Ciò consentirà di identificare meglio i contenuti generati dall'IA e di valutarne la credibilità. Un approccio simile è già stato implementato da DeepMind per etichettare digitalmente i contenuti dell'IA.
Inoltre, ChatGPT visualizzerà in tempo reale notizie da tutto il mondo con autori e link. Gli utenti riceveranno anche informazioni ufficiali sulla procedura di voto del proprio Paese.
OpenAI intende vietare i contenuti volti a distorcere o disturbare il processo elettorale, nonché le app per le campagne elettorali. Gli utenti potranno segnalare le violazioni direttamente agli sviluppatori.
Secondo i rappresentanti dell'azienda, se queste misure avranno successo, saranno estese ad altri Paesi. Ulteriori annunci sulla strategia anti-fake sono attesi a breve.
Fonte: OpenAI