I media australiani potrebbero richiedere a Meta di pagare i contenuti delle notizie per addestrare l'IA
Mariia Shalabaieva/Unsplash
Secondo alcuni ricercatori, gli editori australiani di notizie stanno valutando la possibilità di chiedere un risarcimento a Meta per aver utilizzato i loro contenuti per addestrare sistemi di intelligenza artificiale generativa.
Ecco cosa sappiamo
Secondo The Guardian Australia, Meta non ha commentato se le "fonti online pubblicamente disponibili" su cui è stato addestrato il suo modello Llama 2 includessero pubblicazioni di notizie. Tuttavia, l'azienda potrebbe invocare il principio del "fair use" (uso corretto) secondo la legge statunitense sul copyright.
In passato ci sono stati dei precedenti in cui gli sviluppatori di intelligenza artificiale sono stati citati in giudizio da editori come il New York Times, con l'accusa di aver utilizzato illegalmente articoli per addestrare i modelli. OpenAI è riuscita a far archiviare uno di questi casi.
I professori Monica Attard e Michael Davis ritengono che il codice di negoziazione australiano con i media potrebbe essere uno strumento per costringere Meta e altri giganti tecnologici a pagare le aziende dei media per utilizzare i loro contenuti a fini di apprendimento automatico.
"Poiché gli archivi di notizie sono una base di dati così ricca e affidabile per l'addestramento dell'IA, hanno un valore extra come fonte di addestramento per le aziende e le piattaforme di IA. E visti i rischi noti per l'ambiente dell'informazione, è chiaramente importante che l'IA venga addestrata su fonti di dati di alta qualità", hanno sottolineato.
A dicembre, il procuratore generale australiano Mark Dreyfus ha annunciato la creazione di una task force su copyright e IA. Le varie parti hanno espresso posizioni diverse, che vanno dalla piena legalizzazione alla richiesta di licenze per i contenuti dell'IA.
L'inclusione di aziende come Meta nel codice di negoziazione consentirebbe agli editori di chiedere un compenso per l'uso dei loro contenuti nell'addestramento dei modelli di IA o di bloccare l'accesso ai loro archivi di notizie.
Fonte: Il Guardian