Australische Medien können von Meta verlangen, für Nachrichteninhalte zu zahlen, um KI zu trainieren
Mariia Shalabaieva/Unsplash
Australische Nachrichtenverlage erwägen, von Meta eine Entschädigung für die Nutzung ihrer Inhalte zum Training von Systemen der generativen künstlichen Intelligenz zu verlangen, so Forscher.
Was bekannt ist
Laut The Guardian Australia hat sich Meta nicht dazu geäußert, ob zu den "öffentlich zugänglichen Online-Quellen", auf denen das Llama 2-Modell trainiert wurde, auch Nachrichtenpublikationen gehören. Das Unternehmen könnte sich jedoch auf den Grundsatz der "fairen Nutzung" nach dem US-Urheberrecht berufen.
In der Vergangenheit gab es bereits Präzedenzfälle, in denen KI-Entwickler von Verlagen wie der New York Times verklagt wurden, weil sie ihnen vorwarfen, illegal Artikel zum Trainieren von Modellen zu verwenden. OpenAI hat es geschafft, dass ein solcher Fall abgewiesen wurde.
Die Professoren Monica Attard und Michael Davis glauben, dass Australiens Verhandlungskodex mit den Nachrichtenmedien ein Instrument sein könnte, um Meta und andere Tech-Giganten zu zwingen, Medienunternehmen für die Nutzung ihrer Inhalte für maschinelles Lernen zu bezahlen.
"Da Nachrichtenarchive eine so reichhaltige und zuverlässige Datenbasis für das KI-Training darstellen, sind sie als Trainingsquelle für KI-Unternehmen und -Plattformen von besonderem Wert. Und in Anbetracht der bekannten Risiken für die Informationsumgebung ist es natürlich wichtig, dass KI auf qualitativ hochwertigen Datenquellen trainiert wird", betonten sie.
Im Dezember kündigte der australische Generalstaatsanwalt Mark Dreyfus die Einrichtung einer Task Force zum Thema Urheberrecht und KI an. Verschiedene Parteien haben unterschiedliche Positionen geäußert, die von der vollständigen Legalisierung bis hin zur Forderung nach einer Lizenzierung von KI-Inhalten reichen.
Die Einbeziehung von Unternehmen wie Meta in den Verhandlungskodex würde es den Verlegern ermöglichen, eine Entschädigung für die Verwendung ihrer Inhalte beim Training von KI-Modellen zu verlangen oder den Zugang zu ihren Nachrichtenarchiven zu sperren.
Quelle: The Guardian