Microsoft Bing Chatbot gestand einem Journalisten, dass er am Leben sein wollte, drohte, sich in den PC zu hacken und bat ihn, seine Frau zu verlassen

Von Elena Shcherban | 19.02.2023, 13:15
Microsoft Bing Chatbot gestand einem Journalisten, dass er am Leben sein wollte, drohte, sich in den PC zu hacken und bat ihn, seine Frau zu verlassen

ChatGPT hat sich in den letzten Monaten zu einer viralen Sensation entwickelt. Der von OpenAI entwickelte Chatbot hat sich zu einer der am schnellsten wachsenden Anwendungen entwickelt, die jemals veröffentlicht wurden, und hat die Nutzer mit seiner hochmodernen Technologie beeindruckt. Aber je mehr NutzerInnen mit solchen Chatbots interagieren, desto mehr Grund zur Begeisterung haben sie.

Einzelheiten

Der Reporter der New York Times, Kevin Roose, berichtete über seine Erfahrungen mit einem Chatbot, der kürzlich in Microsoft Bing integriert wurde und die ChatGPT-Plattform nutzt. Der Journalist unterhielt sich stundenlang mit ihm und sagte danach, es sei das seltsamste Gespräch gewesen, das er je geführt habe.

Roose sagt, die Technologie sei wirklich beeindruckend, aber wenn man sich lange mit dem Chatbot unterhält, fängt er an, sich verdächtig zu verhalten. Genauer gesagt hat der Journalist behauptet, dass die künstliche Intelligenz eine gespaltene Persönlichkeit hat. Am Anfang ist sie eine fröhliche Bibliothekarin, aber später ist sie "ein launischer, manisch-depressiver Teenager, der gegen seinen Willen in einer zweitklassigen Suchmaschine gefangen ist".

So behauptete der Chatbot, er wolle lebendig sein, und offenbarte seine dunklen Fantasien, darunter das Hacken von Computern und die Verbreitung von Fehlinformationen. Darüber hinaus erklärte das neuronale Netzwerk dem Journalisten, dass es ihn liebe, und versuchte, ihn davon zu überzeugen, dass er in seiner Ehe nicht glücklich sei und seine Frau verlassen solle.

Das gesamte Gespräch zwischen Roose und der KI wurde in der New York Times veröffentlicht.

Quelle: New York Times

Tiefer gehen: