Los medios australianos podrán exigir a Meta que pague por el contenido de las noticias para entrenar la IA
Mariia Shalabaieva/Unsplash
Los editores de noticias australianos se están planteando pedir una compensación a Meta por utilizar sus contenidos para entrenar sistemas de inteligencia artificial generativa, según afirman unos investigadores.
Esto es lo que sabemos
Según The Guardian Australia, Meta no ha hecho comentarios sobre si las "fuentes en línea disponibles públicamente" en las que se entrenó su modelo Llama 2 incluían publicaciones de noticias. Sin embargo, la empresa podría ampararse en el principio de "uso justo" de la legislación estadounidense sobre derechos de autor.
En el pasado ha habido precedentes de desarrolladores de IA que han sido demandados por editores como The New York Times, acusándoles de utilizar ilegalmente artículos para entrenar modelos. OpenAI ha conseguido que se desestime uno de esos casos.
Los profesores Monica Attard y Michael Davis creen que el código de negociación de Australia con los medios de noticias podría ser una herramienta para obligar a Meta y a otros gigantes tecnológicos a pagar a las empresas de medios de comunicación por utilizar sus contenidos para fines de aprendizaje automático.
"Dado que los archivos de noticias son una base de datos tan rica y fiable para el entrenamiento de IA, tienen un valor adicional como fuente de entrenamiento para las empresas y plataformas de IA. Y en cuanto a los riesgos conocidos para el entorno de la información, es claramente importante que la IA se entrene en fuentes de datos de alta calidad", subrayaron.
En diciembre, el Fiscal General de Australia, Mark Dreyfus, anunció la creación de un grupo de trabajo sobre derechos de autor e IA. Las distintas partes han expresado posturas diferentes, que van desde la plena legalización hasta la exigencia de licencias para los contenidos de IA.
Incluir a empresas como Meta en el código de negociación permitiría a los editores exigir compensaciones por el uso de sus contenidos en el entrenamiento de modelos de IA o bloquear el acceso a sus archivos de noticias.
Fuente: The Guardian