Anthropic: los propios editores de música infringieron los derechos de autor con sus "ataques" a Claude
Anthropic
La empresa estadounidense Anthropic, creadora del chatbot Claude, basado en inteligencia artificial, ha respondido a una demanda por infracción de derechos de autor presentada por un grupo de editores musicales. La empresa afirma que el modelo se entrenó basándose en el uso legítimo de las letras de las canciones, que constituyen una "fracción minúscula" de los datos de entrenamiento.
Esto es lo que sabemos
Además, Anthropic afirma que eran los demandantes, y no los desarrolladores de Claude, quienes controlaban la recepción de los contenidos supuestamente infractores. Con sus "ataques" al chatbot para descubrir letras de canciones protegidas, mostraron el "comportamiento volitivo" necesario para incurrir en responsabilidad, insiste la empresa de IA.
Anthropic también rechaza la afirmación de la empresa musical de que Claude ha sido prohibido porque el comportamiento supuestamente infractor ya ha sido remediado mediante la aplicación de medidas técnicas adicionales. Según la empresa, la demanda se ha presentado en la jurisdicción equivocada porque Anthropic no tiene vínculos sustanciales con Tennessee.
Con el telón de fondo de una creciente batalla por los derechos de autor en el campo de la IA generativa, la decisión del tribunal en este sonado caso podría sentar un importante precedente. Hasta la fecha, ningún demandante ha ganado mandamientos judiciales preliminares contra empresas de IA.
Fuente: VentureBeat