En Microsoft-ansatt klaget til FTC på sikkerheten til AI-generatoren Copilot Designer.

Av: Bohdan Kaminskyi | 07.03.2024, 16:38
En Microsoft-ansatt klaget til FTC på sikkerheten til AI-generatoren Copilot Designer.
Microsoft

Shane Jones, en kunstig intelligens-ingeniør hos Microsoft, har klaget til US Federal Trade Commission (FTC) på grunn av sikkerheten til Copilot Designer AI-bildegeneratoren.

Dette er hva vi vet

Ifølge Jones, som har jobbet i Microsoft i seks år, "nektet" selskapet å fjerne Copilot Designer. Han advarte gjentatte ganger om at verktøyet kunne skape skadelig innhold.

I brevet til FTC påpekte ingeniøren at den kunstige intelligensen under testingen genererte "demoner og monstre sammen med terminologi knyttet til abortrettigheter, tenåringer med automatrifler, seksualiserte bilder av kvinner i voldelige scener og mindreårige som drikker og bruker narkotika".

I tillegg, hevder Jones, genererte verktøyet bilder av Disney-figurer iført israelske militæruniformer mot et bakteppe av ødeleggelser på Gazastripen.

Ingeniøren har forsøkt å advare Microsoft om problemene med DALLE-3-konstruktøren som brukes i Copilot Designer siden desember i fjor. Han publiserte et åpent brev på LinkedIn, men selskapets advokater krevde at det skulle slettes.

"I løpet av de siste tre månedene har jeg gjentatte ganger oppfordret Microsoft til å fjerne Copilot Designer fra offentlig bruk inntil bedre sikkerhetstiltak er på plass. Igjen har de unnlatt å gjennomføre disse endringene og fortsetter å markedsføre produktet til 'Anyone. Hvor som helst. Any Device", sier Jones.

Microsoft sier at de har forpliktet seg til å ta hensyn til de ansattes bekymringer i samsvar med selskapets retningslinjer, og at de har gjennomført en intern undersøkelse av ingeniørens bekymringer.

Tidligere har Microsoft-sjef Satya Nadella kalt Copilot Designer-genererte eksplisitte bilder av sangerinnen Taylor Swift for "alarmerende og forferdelige" og lovet bedre kontrollsystemer.

Gå dypere:

Kilde: The Verge The Verge