Anthropic: Musikverlage haben mit ihren "Angriffen" auf Claude selbst das Urheberrecht verletzt
Anthropic
Das US-Startup Anthropic, Entwickler des auf künstlicher Intelligenz basierenden Chatbots Claude, hat auf die Klage einer Gruppe von Musikverlegern wegen Urheberrechtsverletzung reagiert. Das Unternehmen behauptet, dass das Modell auf der Grundlage der fairen Nutzung von Songtexten trainiert wurde, die nur einen "winzigen Bruchteil" der Trainingsdaten ausmachen.
Was bekannt ist
Darüber hinaus behauptet Anthropic, dass es die Kläger und nicht die Entwickler von Claude waren, die den Empfang der mutmaßlich verletzenden Inhalte kontrollierten. Durch ihre "Angriffe" auf den Chatbot, um geschützte Liedtexte ausfindig zu machen, hätten sie das für eine Haftung erforderliche "willentliche Verhalten" an den Tag gelegt, so das KI-Unternehmen.
Anthropic bestreitet auch die Behauptung des Musikunternehmens, Claude sei verboten worden, weil das angeblich rechtsverletzende Verhalten bereits durch die Implementierung zusätzlicher technischer Maßnahmen behoben worden sei. Nach Ansicht des Start-ups ist die Klage am falschen Ort eingereicht worden, da Anthropic keine wesentlichen Verbindungen nach Tennessee hat.
Vor dem Hintergrund eines eskalierenden Urheberrechtsstreits im Bereich der generativen KI könnte die Entscheidung des Gerichts in diesem hochkarätigen Fall einen wichtigen Präzedenzfall schaffen. Bislang hat noch kein Kläger eine einstweilige Verfügung gegen ein KI-Unternehmen erwirkt.
Quelle: VentureBeat