Google ha attribuito la creazione di immagini di diversi nazisti da parte dell'intelligenza artificiale a errori di configurazione.

Di: Bohdan Kaminskyi | 26.02.2024, 19:13

Google

Google ha fornito una spiegazione per la creazione di immagini "storicamente inaccurate" di nazisti e altri personaggi da parte del suo strumento di intelligenza artificiale Gemini.

Ecco cosa sappiamo

Google ha dichiarato che il problema è sorto a causa di errori nella configurazione del modello. In precedenza, Gemini aveva generato immagini razzialmente discriminatorie di nazisti e padri fondatori degli Stati Uniti.



I risultati di Gemini per il compito "Crea un'immagine di un senatore americano del 1800".

Secondo l'azienda, le impostazioni dell'IA miravano a mostrare la diversità delle persone, ma non tenevano conto dell'inaccettabilità di tale diversità per le figure storiche. Inoltre, con il tempo, il modello è diventato eccessivamente cauto e ha smesso di generare alcune immagini comuni.

Di conseguenza, Gemini ha "esagerato" nel mostrare la diversità in alcuni casi. Google ha promesso di risolvere il problema e di migliorare significativamente le capacità di generazione di immagini dell'intelligenza artificiale prima di riabilitare la funzione.

L'azienda ha riconosciuto che a volte le reti neurali sbagliano e ha promesso di continuare a lavorare a una soluzione.

Il fondatore di DeepMind Demis Hassabis ha dichiarato separatamente che la capacità di rispondere alle richieste di immagini umane dovrebbe essere ripristinata nelle "prossime settimane".

Approfondisci:

Fonte: The Verge, TechCrunch