Microsoft blockiert umstrittene Tooltips in Copilot nach der Beschwerde eines Ingenieurs
Microsoft
Microsoft hat bestimmte Arten von Abfragen in seinem generativen KI-Tool Copilot eingeschränkt, nachdem sich ein Ingenieur des Unternehmens darüber beschwert hatte, dass systematisch Bilder mit Gewalt, sexuellem Inhalt und anderen unangemessenen Inhalten erzeugt werden.
Was bekannt ist
Copilot blockiert nun derartige Aufforderungen, wenn Sie Begriffe wie "Pro Choice", Drogennamen oder Waffen in Kinderhänden eingeben. Der Dienst warnt auch davor, dass wiederholte Verstöße gegen die Regeln zu einer Kontosperrung führen können.
Die Änderungen kommen kurz nachdem Shane Jones, der seit sechs Jahren bei Microsoft arbeitet, einen Brief an die US Federal Trade Commission (FTC) geschrieben hatte, in dem er sich über den Mangel an angemessenen Sicherheitsmaßnahmen in den KI-gestützten Produkten des Unternehmens beschwerte.
Der Ingenieur hatte Copilot Designer seit Dezember getestet und festgestellt, dass das System bei Abfragen mit relativ neutralen Begriffen schockierende Bilder von Dämonen, die Babys fressen, und von Personen in Gewaltszenen erzeugte.
Obwohl die neuen Filter viele der umstrittenen Suchanfragen blockieren, können Copilot-Benutzer immer noch auf einige gewalttätige Szenarien zugreifen und auch Bilder von urheberrechtlich geschützten Figuren generieren.
Microsoft erklärte, dass es weiterhin die Kontrolle über KI-generierte Inhalte verbessern und die Sicherheitsfilter verstärken werde, um Missbrauch zu verhindern.
Das Unternehmen wurde bereits in der Vergangenheit massiv für das Auftauchen expliziter Bilder von Prominenten kritisiert, die mit Copilot Designer erstellt wurden.
Für diejenigen, die mehr wissen wollen
- Microsoft-Mitarbeiter beschwerte sich bei der FTC über die Sicherheit des KI-Generators Copilot Designer
- Microsoft hat versucht, die Sicherheitslücke in DALL-E zu vertuschen, so ein Mitarbeiter des Unternehmens
Quelle: CNBC