Microsoft ha bloccato i tooltip controversi in Copilot dopo il reclamo di un ingegnere
Microsoft
Microsoft ha limitato alcuni tipi di query nel suo strumento di intelligenza artificiale generativa Copilot dopo che un ingegnere dell'azienda si è lamentato della generazione sistematica di immagini con violenza, contenuti sessuali e altri contenuti inappropriati.
Ecco cosa sappiamo
Copilot ora blocca tali richieste quando si digitano termini come "pro choice", nomi di farmaci o menzioni di armi in mano a bambini. Il servizio avverte inoltre che la ripetuta violazione delle regole può comportare la restrizione dell'account.
Le modifiche arrivano poco dopo che Shane Jones, che lavora in Microsoft da sei anni, ha scritto una lettera alla Federal Trade Commission (FTC) degli Stati Uniti lamentando la mancanza di misure di sicurezza adeguate nei prodotti AI dell'azienda.
L'ingegnere ha testato Copilot Designer da dicembre e ha scoperto che per query con termini relativamente neutri, il sistema generava immagini scioccanti di demoni che mangiano bambini e personaggi in scene violente.
Sebbene i nuovi filtri blocchino molte delle richieste controverse, gli utenti di Copilot possono ancora accedere ad alcuni scenari violenti, oltre a generare immagini di personaggi protetti da copyright.
Microsoft ha dichiarato che continua a migliorare i controlli sui contenuti generati dall'intelligenza artificiale e a rafforzare i filtri di sicurezza per prevenire gli abusi.
L'azienda ha già ricevuto critiche pesanti in passato per la comparsa di immagini esplicite di celebrità generate con Copilot Designer.
Approfondimento:
- Un dipendente di Microsoft si è lamentato con la FTC della sicurezza del generatore di IA Copilot Designer
- Microsoft ha cercato di mettere a tacere la vulnerabilità di DALL-E, ha dichiarato un dipendente dell'azienda.
Fonte: CNBC