Australische media kunnen eisen dat Meta betaalt voor nieuwscontent om AI te trainen

Via: Bohdan Kaminskyi | 08.03.2024, 21:27
Australische media kunnen eisen dat Meta betaalt voor nieuwscontent om AI te trainen
Mariia Shalabaieva/Unsplash

Australische uitgevers van nieuws overwegen compensatie te vragen van Meta voor het gebruik van hun content om generatieve kunstmatige intelligentiesystemen te trainen, zeggen onderzoekers.

Dit is wat we weten

Volgens The Guardian Australia heeft Meta geen commentaar gegeven op de vraag of de "publiek beschikbare online bronnen" waarop het Llama 2 model is getraind ook nieuwspublicaties bevatten. Het bedrijf zou zich echter kunnen beroepen op het principe van "fair use" onder de Amerikaanse auteurswet.

In het verleden zijn er precedenten geweest waarbij AI-ontwikkelaars werden aangeklaagd door uitgevers zoals The New York Times, die hen ervan beschuldigden illegaal artikelen te gebruiken om modellen te trainen. OpenAI is erin geslaagd om één zo'n zaak afgewezen te krijgen.

Professoren Monica Attard en Michael Davis geloven dat de Australische onderhandelingscode met de nieuwsmedia een hulpmiddel kan zijn om Meta en andere techgiganten te dwingen om mediabedrijven te betalen voor het gebruik van hun content voor machine learning doeleinden.

"Omdat nieuwsarchieven zo'n rijke, betrouwbare databank zijn voor AI-training, hebben ze extra waarde als trainingsbron voor AI-bedrijven en platforms. En gezien de bekende risico's voor de informatieomgeving is het duidelijk belangrijk dat AI wordt getraind op kwalitatief hoogwaardige gegevensbronnen", benadrukten ze.

In december kondigde de Australische procureur-generaal Mark Dreyfus de oprichting aan van een taskforce voor auteursrecht en AI. Verschillende partijen hebben verschillende standpunten ingenomen, variërend van volledige legalisatie tot het verplicht stellen van licenties voor AI-inhoud.

Door bedrijven als Meta op te nemen in de onderhandelingscode zouden uitgevers compensatie kunnen eisen voor het gebruik van hun content in het trainen van AI-modellen of de toegang tot hun nieuwsarchieven kunnen blokkeren.

Bron: The Guardian