Microsoft blokkerte kontroversielle verktøytips i Copilot etter klage fra en ingeniør
Microsoft
Microsoft har begrenset visse typer spørsmål i sitt generative AI-verktøy Copilot etter at en av selskapets ingeniører klaget over at det systematisk ble generert bilder med vold, seksuelt innhold og annet upassende innhold.
Dette er hva vi vet
Copilot blokkerer nå slike spørsmål når du skriver inn begreper som "pro choice", navn på narkotika eller omtale av våpen i hendene på barn. Tjenesten advarer også om at gjentatte brudd på reglene kan føre til at kontoen sperres.
Endringene kommer kort tid etter at Shane Jones, som har jobbet i Microsoft i seks år, skrev et brev til det amerikanske handelstilsynet FTC (Federal Trade Commission) der han klaget på manglende sikkerhetstiltak i selskapets AI-drevne produkter.
Ingeniøren hadde testet Copilot Designer siden desember og oppdaget at systemet genererte sjokkerende bilder av demoner som spiste babyer og personer i voldelige scener for søk med relativt nøytrale termer.
Selv om de nye filtrene blokkerer mange av de kontroversielle spørsmålene, kan Copilot-brukere fortsatt få tilgang til noen voldelige scenarier, i tillegg til å generere bilder av opphavsrettsbeskyttede figurer.
Microsoft sier at de fortsetter å forbedre kontrollen over AI-generert innhold og styrke sikkerhetsfiltrene for å forhindre misbruk.
Selskapet har tidligere fått massiv kritikk for at det har dukket opp eksplisitte bilder av kjendiser som er generert ved hjelp av Copilot Designer.
Gå dypere:
- En Microsoft-ansatt klaget til FTC på sikkerheten til AI-generatoren Copilot Designer.
- Microsoft forsøkte å skjule sårbarheten i DALL-E, sier en ansatt i selskapet.
Kilde: CNBC CNBC