El dilema que nadie puede resolver: ¿de quién es el contenido que genera la inteligencia artificial?
Entre un artista argentino acosado por copias sintéticas y un acuerdo de $1.500 millones, el derecho de autor enfrenta su crisis existencial más profunda.
En enero de 2025, la Oficina de Derechos de Autor de Estados Unidos publicó un informe que había recopilado más de 10.000 comentarios de artistas, compositores, abogados, empresas tecnológicas y hasta una clase de estudiantes de secundaria. La conclusión fue contundente: el contenido generado exclusivamente por IA no puede registrarse bajo copyright. Solo las obras donde un humano ha determinado elementos expresivos suficientes merecen protección.
Pero esa respuesta, lejos de cerrar el debate, lo abrió aún más. Porque si la IA no puede ser autora, ¿quién lo es? ¿El usuario que escribió el prompt? ¿La empresa que entrenó el modelo? ¿Nadie?
Y sobre todo: ¿qué pasa con los millones de obras protegidas que estas IA usaron para aprender a crear?
Cuando tu arte te persigue en forma sintética: el caso Caruso
En Argentina, el ilustrador Santiago Caruso fue uno de los primeros en experimentar el lado oscuro de la IA generativa. Su estilo distintivo —esas ilustraciones góticas, intrincadas, con una técnica que perfeccionó durante décadas— empezó a aparecer en imágenes generadas por Stable Diffusion y Midjourney.
“Estas obras son ilegales porque están construidas con datasets sin el consentimiento de los autores”, explica Caruso. “No hay crédito a los creativos de los cuales se sirvieron los desarrolladores de IA para hacer estos modelos y tampoco hay compensación económica”.
El problema va más allá de lo moral. Caruso puede demostrar que su estilo fue copiado, pero bajo la Ley 11.723 de Propiedad Intelectual argentina, enfrenta un vacío legal: ¿cómo se prueba la infracción cuando lo que se copió no es una obra específica sino el “estilo” extraído de cientos de sus trabajos?
El artículo 1° de la ley argentina es claro: protege “las obras científicas, literarias y artísticas”. El artículo 4° establece que “Son titulares del derecho de propiedad intelectual: a) El autor de la obra”. Pero estos artículos fueron redactados asumiendo que el autor es siempre una persona física. La ley no contempla la posibilidad de que una máquina cree, ni que una máquina aprenda copiando.
El caso que cambió todo: $1.500 millones por piratería algorítmica
En junio de 2025, un tribunal federal de San Francisco emitió un fallo que sacudió a Silicon Valley. El juez determinó que Anthropic —la empresa detrás de Claude, el chatbot que estás usando probablemente para generar contenido— había usado ilegalmente obras protegidas para entrenar sus modelos.
El resultado: Anthropic acordó pagar $1.500 millones en un acuerdo colectivo que cubre aproximadamente 500.000 obras. Eso significa unos $3.000 por obra pirateada. Es el pago más grande en la historia del copyright estadounidense.
Lo crucial del fallo es que estableció una distinción: las empresas de IA pueden usar obras protegidas para entrenar modelos, siempre que las obtengan legalmente. Pero Anthropic había recurrido a lo que el juez calificó como “piratería” —descargar masivamente contenido sin licencia.
El mensaje fue claro: entrenar IA con obras protegidas no es automáticamente ilegal, pero cómo obtenés esas obras importa. Y mucho.
Getty Images vs. el mundo sintético
El otro caso que define esta batalla es Getty Images vs. Stability AI, litigado simultáneamente en tribunales británicos y estadounidenses. Getty, el gigante del stock fotográfico, alega que Stability AI copió 12,3 millones de imágenes de sus sitios web para entrenar Stable Diffusion.
En noviembre de 2025, el Tribunal Superior de Inglaterra emitió un fallo mixto que revela las complejidades del tema:
Getty ganó parcialmente en marcas: El tribunal encontró que Stable Diffusion generaba imágenes con marcas de agua deformadas que se parecían a las de Getty/iStock. Eso constituía infracción de marca registrada bajo las secciones 10(1) y 10(2) de la Trade Marks Act 1994, pero solo para ciertas versiones tempranas del modelo.
Getty perdió en copyright: La empresa tuvo que abandonar su reclamo principal de infracción de copyright porque no pudo probar que el entrenamiento del modelo ocurrió en suelo británico. Stability AI había sido suficientemente astuta manteniendo sus servidores de entrenamiento fuera del Reino Unido.
El juez también rechazó el argumento de que los “pesos del modelo” (los parámetros numéricos de una red neuronal entrenada) constituyen “copias” de las imágenes en el sentido requerido por la ley. Según el tribunal, para que haya copia debe existir una “reproducción reconocible” de la obra, y los pesos del modelo no cumplen ese requisito.
Es una conclusión técnicamente sofisticada pero legalmente devastadora para los artistas: significa que aunque tu obra fue usada para entrenar la IA, el modelo resultante no “contiene” tu obra de manera protegible.
El prompt no te hace autor (aunque quisieras)
Uno de los debates más candentes es si escribir un prompt detallado te convierte en autor del output generado.
La respuesta de la Copyright Office es un rotundo no. El informe de enero 2025 explica: incluso si tu prompt es extremadamente detallado o complejo, no confiere derechos de autor sobre lo que la IA genera. La razón es simple: los prompts son instrucciones, no expresiones creativas. Describen una idea, pero es la IA —no tú— quien determina la ejecución de los elementos creativos.
Un prompt puede decir: “Un gato naranja con sombrero de copa en estilo victoriano”. Pero la IA decide: el ángulo, la iluminación, los detalles del sombrero, la expresión del gato, los colores exactos, la composición. Esas decisiones son las que constituyen la expresión protegible, y tú no las tomaste.
Esto tiene consecuencias enormes para empresas que generan contenido con IA. Si no podés probar autoría humana suficiente, ese contenido está en el dominio público. Cualquiera puede usarlo, copiarlo, venderlo.
¿Cuándo SÍ hay derechos? El test de la contribución humana
La Copyright Office estableció tres escenarios donde sí puede haber protección:
1. Cuando una obra humana es perceptible en el output de la IA Si tomás una fotografía tuya y usás IA para modificarla (cambiar el fondo, agregar elementos), la fotografía original sigue siendo tuya y conserva su protección.
2. Cuando hacés arreglos o modificaciones creativas del output Si la IA genera una imagen y vos la editás sustancialmente —cambios de composición, retoques artísticos, combinación con otros elementos— esos aportes sí son protegibles. En enero de 2025, la Copyright Office registró “A Single Piece of American Cheese”, la primera obra visual compuesta enteramente de outputs de IA registrada como “obra compuesta” (composite work). La base: la selección, arreglo y coordinación humana del material generado por IA constituía autoría suficiente.
3. Cuando incorporás material generado por IA en una obra mayor Si escribís un libro y usás IA para generar algunas ilustraciones que luego editás e integrás en un diseño editorial tuyo, la obra completa puede ser protegible. Pero solo la parte con contribución humana tiene copyright —las ilustraciones puras de IA siguen siendo dominio público.
Argentina y el silencio legislativo
Mientras Estados Unidos y Europa litigan, legislan y establecen precedentes, Argentina mira desde la platea.
La Ley 11.723, sancionada en 1933, no menciona —obviamente— la inteligencia artificial. El artículo 4° establece que el autor debe ser una persona física. El Convenio de Berna, al que Argentina adhiere, también asume autoría humana.
Esto crea una paradoja: el contenido 100% generado por IA en Argentina tampoco sería protegible, porque la ley requiere un autor humano. Pero a diferencia de Estados Unidos, donde esto se debatió abiertamente y se emitieron lineamientos claros, en Argentina simplemente no hay debate institucional.
Micaela Mantegna, especialista en IA y propiedad intelectual, señala que hay que separar “lo ético de lo legal”. Éticamente, usar obras protegidas sin consentimiento para entrenar IA es cuestionable. Legalmente, Argentina no tiene un marco para juzgarlo.
En marzo de 2024 se presentó el proyecto “Ley Turing: readecuación del sistema legal argentino por el impacto de la inteligencia artificial” en la Cámara de Diputados. Los artículos 4 y 5 proponían introducir en la Ley 11.723 el término “producciones sintéticas” para referirse al contenido generado exclusivamente por IA, estableciendo que no puede ser protegido por derechos de autor.
El proyecto perdió estado parlamentario sin debate. Y ahí sigue.
El fair use: la doctrina que todos invocan y nadie entiende
El debate sobre si es legal entrenar IA con obras protegidas gira obsesivamente alrededor del “fair use” (uso justo) en Estados Unidos.
La doctrina del fair use permite usar obras protegidas sin autorización en ciertos contextos: crítica, comentario, noticias, enseñanza, investigación. Los tribunales analizan cuatro factores:
Propósito del uso (¿comercial o educativo?)
Naturaleza de la obra original
Cantidad usada en relación al todo
Efecto en el mercado de la obra original
Las empresas de IA argumentan que entrenar modelos es “transformativo” —crean algo nuevo— y por tanto fair use. Los artistas responden que esos modelos generan output que compite directamente con sus obras originales, destruyendo su mercado.
En mayo de 2025, la Copyright Office publicó su posición: algunos usos serán fair use, otros no. No hay regla general. Cada caso debe analizarse individualmente.
Esto deja a artistas, empresas y abogados en un limbo. Y a jueces tomando decisiones caso por caso que pueden contradecirse entre sí.
Argentina no tiene doctrina de fair use. Tenemos “usos honrados” en el artículo 10 de la Ley 11.723, pero son mucho más restrictivos. Permitir la copia de obras protegidas para entrenar IA bajo nuestra ley actual sería una interpretación extremadamente generosa.
“El problema no es solo legal sino conceptual: nuestro sistema de propiedad intelectual fue construido sobre el supuesto de que crear requiere un humano. La IA generativa destruye ese supuesto. Podemos seguir negándolo y forzando las leyes actuales hasta que revienten, o podemos admitir que necesitamos un marco completamente nuevo que equilibre tres cosas: protección a creadores humanos, acceso al conocimiento para entrenar IA, y claridad sobre quién es dueño de qué.”
Los modelos de negocio que emergen del caos
Mientras el derecho no se pone de acuerdo, el mercado actúa.
Algunas empresas de IA, como OpenAI y Google, están firmando acuerdos de licencia con editoriales, agencias de noticias y bancos de imágenes. News/Media Alliance —que agrupa a medios estadounidenses— está desarrollando marcos de licenciamiento estandarizados. Getty Images llegó a un acuerdo con Perplexity para que el buscador AI pueda mostrar imágenes de Getty.
Estos acuerdos reconocen implícitamente que el contenido protegido tiene valor y debe ser compensado. Pero también crean un sistema de dos velocidades: grandes medios y artistas representados que pueden negociar licencias, y creadores independientes que quedan fuera.
Adobe, en un movimiento inteligente, entrenó su Firefly solo con contenido de Adobe Stock (donde tienen los derechos) y obras de dominio público. Así evita demandas por copyright. Pero también limita lo que el modelo puede aprender.
La pregunta estratégica es: ¿modelos “limpios” pero menos potentes, o modelos entrenados con todo internet y litigios interminables?
Lo que Argentina debe hacer (y no está haciendo)
Desde mi perspectiva, Argentina necesita urgentemente tres cosas:
Primero, claridad sobre la autoría. Necesitamos establecer legislativamente que:
El contenido 100% generado por IA no es protegible por derechos de autor
La contribución humana sustancial sí genera derechos, con criterios claros de qué constituye “sustancial”
Los prompts por sí solos no confieren autoría
Segundo, reglas sobre el entrenamiento. Debemos decidir si entrenar IA con obras protegidas requiere:
Autorización expresa de los autores (maximiza protección, frena innovación)
Un sistema de opt-out donde los autores pueden excluirse (equilibrio intermedio)
Una excepción específica de “minería de datos” con compensación obligatoria (el modelo europeo)
Tercero, trazabilidad obligatoria. Las empresas que operan IA generativa en Argentina deberían estar obligadas a:
Revelar qué datasets usaron para entrenar
Permitir que autores verifiquen si sus obras fueron incluidas
Establecer mecanismos de reclamo y compensación
Nada de esto es técnicamente imposible. Es políticamente difícil porque enfrenta intereses poderosos. Pero la alternativa es peor: un mercado donde los artistas argentinos ven sus obras usadas sin su consentimiento y sin compensación, mientras empresas extranjeras lucran con modelos entrenados con ese contenido.
El caso que viene: The New York Times vs. OpenAI
Mientras escribo esto, avanza en tribunales estadounidenses lo que podría ser el caso definitorio: The New York Times vs. OpenAI. El Times alega que OpenAI usó décadas de periodismo protegido para entrenar GPT sin autorización ni pago.
OpenAI presentó en julio de 2025 un alegato audaz: exige que el Times demuestre que cada artículo en disputa es “original” y fue creado íntegramente por el periódico. Es un intento de convertir al demandante en demandado —obligarlo a probar su autoría antes de que OpenAI tenga que defender su uso.
El resultado de este caso podría determinar si entrenar con contenido periodístico es legal, si los medios pueden exigir compensación retroactiva, y si las IA deben revelar sus fuentes de entrenamiento.
Y mientras tanto, Claude, ChatGPT, Gemini y Llama siguen entrenándose con contenido de internet, incluyendo probablemente este mismo artículo que estás leyendo.
Conclusión: la crisis existencial del copyright
El derecho de autor fue concebido para un mundo donde crear era lento, costoso y humano. Un mundo donde podías identificar al autor, la obra y la copia.
La IA generativa destruye todas esas certezas:
¿Quién es el autor cuando una máquina crea?
¿Qué es una obra cuando se genera en milisegundos?
¿Qué es una copia cuando el modelo no “contiene” las obras de entrenamiento?
Estados Unidos, Europa y China están escribiendo las reglas de este nuevo mundo en tiempo real, a través de litigios, legislación y regulación. Argentina mira, espera, y deja que sus artistas enfrenten solos un sistema legal diseñado para una realidad que ya no existe.
El ilustrador Santiago Caruso lo resumió perfectamente: “Estas tecnologías no podrían funcionar sin todo ese dateo previo de obra humana, por eso no son creativas. Son parasitarias”.
La pregunta ya no es si vamos a regular la IA generativa en relación a los derechos de autor. Es si lo vamos a hacer antes o después de que el daño a nuestros creadores sea irreversible.
¿Trabajás con IA generativa? ¿Sos artista, fotógrafo o escritor preocupado por el uso de tu obra? ¿Tenés experiencia con este tema? Comentá tu perspectiva.
Fuentes y referencias
Oficina de Derechos de Autor de EE.UU.:
U.S. Copyright Office (Enero 2025): “Copyright and Artificial Intelligence, Part 2: Copyrightability“
U.S. Copyright Office (Enero 2025): “NewsNet Issue 1060 - AI Report Part 2“
Congress.gov (2025): “Generative Artificial Intelligence and Copyright Law“
Casos judiciales:
Getty Images (US) Inc & Ors v. Stability AI Limited [2025] EWHC 2863 (Ch): “Sentencia completa - 4 de noviembre 2025“
Bird & Bird (Noviembre 2025): “Stability AI defeats Getty Images copyright claims“
Mayer Brown (Noviembre 2025): “Getty Images v Stability AI: What the High Court’s Decision Means“
Taylor Wessing (Julio 2025): “Getty Images v Stability AI: where are we after the trial“
BakerHostetler: “Getty Images v. Stability AI“
CNBC (Mayo 2025): “Getty CEO: Stability AI lawsuit doesn’t cover industry mass theft“
BuiltIn (2023, actualizado 2025): “AI-Generated Content and Copyright Law: What We Know“
Marco legal y análisis:
Wikipedia (actualizado 2025): “Artificial intelligence and copyright“
Manatt, Phelps & Phillips (Enero 2025): “Copyright Office Releases New Report on Copyrightability of AI Works“
USC IP & Technology Law Society (Febrero 2025): “AI, Copyright, and the Law: The Ongoing Battle Over Intellectual Property Rights“
Undetectable AI (Septiembre 2025): “Who Owns AI Generated Content in 2025?“
Argentina - Marco legal y casos:
Chequeado (Enero 2024): “Arte, inteligencia artificial, derechos de autor y copyright: ¿a quién le pertenecen las obras?“ - Incluye el caso de Santiago Caruso
Abogados.com.ar: “¿A quién pertenecen las creaciones generadas por Inteligencia Artificial?“
Grupo Professional (Septiembre 2024): “El Futuro de la Propiedad Intelectual: ¿Quién es el Autor en la Era de la Inteligencia Artificial?“ - Por Dr. Patricio Paludi
Derecho en Zapatillas (Febrero 2025): “Derechos de Autor y la Inteligencia Artificial: ¿Quién es el Autor en la Era Digital?“
Ámbito (Marzo 2024): “Propiedad Intelectual en la era de la Inteligencia Artificial: ¿Quién es el dueño del contenido?“
Instituto Autor (Junio 2024): “América Latina: Novedades en materia de inteligencia artificial en relación con la propiedad intelectual“ - Incluye información sobre proyecto “Ley Turing”
Safe Creative (Abril 2025): “Inteligencia artificial y derechos de autor en Argentina“
Legislación argentina:
Convenios internacionales:
Convenio de Berna para la Protección de Obras Literarias y Artísticas



