Google ha attribuito la creazione di immagini di diversi nazisti da parte dell'intelligenza artificiale a errori di configurazione.
Google ha fornito una spiegazione per la creazione di immagini "storicamente inaccurate" di nazisti e altri personaggi da parte del suo strumento di intelligenza artificiale Gemini.
Ecco cosa sappiamo
Google ha dichiarato che il problema è sorto a causa di errori nella configurazione del modello. In precedenza, Gemini aveva generato immagini razzialmente discriminatorie di nazisti e padri fondatori degli Stati Uniti.
I risultati di Gemini per il compito "Crea un'immagine di un senatore americano del 1800".
Secondo l'azienda, le impostazioni dell'IA miravano a mostrare la diversità delle persone, ma non tenevano conto dell'inaccettabilità di tale diversità per le figure storiche. Inoltre, con il tempo, il modello è diventato eccessivamente cauto e ha smesso di generare alcune immagini comuni.
Di conseguenza, Gemini ha "esagerato" nel mostrare la diversità in alcuni casi. Google ha promesso di risolvere il problema e di migliorare significativamente le capacità di generazione di immagini dell'intelligenza artificiale prima di riabilitare la funzione.
L'azienda ha riconosciuto che a volte le reti neurali sbagliano e ha promesso di continuare a lavorare a una soluzione.
Il fondatore di DeepMind Demis Hassabis ha dichiarato separatamente che la capacità di rispondere alle richieste di immagini umane dovrebbe essere ripristinata nelle "prossime settimane".
Approfondisci:
Fonte: The Verge, TechCrunch