En Microsoft-ansatt klaget til FTC på sikkerheten til AI-generatoren Copilot Designer.
Microsoft
Shane Jones, en kunstig intelligens-ingeniør hos Microsoft, har klaget til US Federal Trade Commission (FTC) på grunn av sikkerheten til Copilot Designer AI-bildegeneratoren.
Dette er hva vi vet
Ifølge Jones, som har jobbet i Microsoft i seks år, "nektet" selskapet å fjerne Copilot Designer. Han advarte gjentatte ganger om at verktøyet kunne skape skadelig innhold.
I brevet til FTC påpekte ingeniøren at den kunstige intelligensen under testingen genererte "demoner og monstre sammen med terminologi knyttet til abortrettigheter, tenåringer med automatrifler, seksualiserte bilder av kvinner i voldelige scener og mindreårige som drikker og bruker narkotika".
I tillegg, hevder Jones, genererte verktøyet bilder av Disney-figurer iført israelske militæruniformer mot et bakteppe av ødeleggelser på Gazastripen.
Ingeniøren har forsøkt å advare Microsoft om problemene med DALLE-3-konstruktøren som brukes i Copilot Designer siden desember i fjor. Han publiserte et åpent brev på LinkedIn, men selskapets advokater krevde at det skulle slettes.
"I løpet av de siste tre månedene har jeg gjentatte ganger oppfordret Microsoft til å fjerne Copilot Designer fra offentlig bruk inntil bedre sikkerhetstiltak er på plass. Igjen har de unnlatt å gjennomføre disse endringene og fortsetter å markedsføre produktet til 'Anyone. Hvor som helst. Any Device", sier Jones.
Microsoft sier at de har forpliktet seg til å ta hensyn til de ansattes bekymringer i samsvar med selskapets retningslinjer, og at de har gjennomført en intern undersøkelse av ingeniørens bekymringer.
Tidligere har Microsoft-sjef Satya Nadella kalt Copilot Designer-genererte eksplisitte bilder av sangerinnen Taylor Swift for "alarmerende og forferdelige" og lovet bedre kontrollsystemer.
Gå dypere:
Kilde: The Verge The Verge