Cuando la ley no llega: deepfakes pornográficos en Argentina y el agujero negro del Código Penal
Dos casos judiciales exponen cómo la inteligencia artificial permite cometer delitos que nuestro sistema penal no contempla.
En junio de 2025, un joven de 19 años fue procesado en Córdoba por usar inteligencia artificial para crear imágenes pornográficas falsas de sus compañeras de colegio y publicarlas en internet. Descargó fotos de redes sociales, usó técnicas de face-swapping para insertar los rostros en escenas sexuales explícitas, y las subió a sitios pornográficos con los nombres reales de las víctimas y descripciones denigrantes.
El mismo año, en San Jerónimo Sud, Santa Fe, un hombre de 48 años fue condenado por crear deepfakes pornográficos de más de 80 mujeres del pueblo. En sus dispositivos encontraron 48.000 imágenes, incluyendo enormes cantidades de contenido generado con IA de mujeres adultas y menores de edad.
Estos no son casos aislados. Escuelas de Buenos Aires, Chaco, Río Negro y San Juan reportaron incidentes similares. Y aquí está el problema que me mantiene despierto: ninguno de estos casos tiene una figura penal específica en el Código Penal argentino.
La Ley Olimpia no alcanza
Argentina incorporó la violencia digital con perspectiva de género mediante la Ley Olimpia (Ley 27.736), sancionada en 2023. La norma modificó la Ley 26.485 de Protección Integral a las Mujeres, incorporando como modalidad de violencia la “violencia digital” y “violencia mediática digital”.
Es un avance significativo. Pero tiene un problema: no contempla específicamente los deepfakes generados con inteligencia artificial.
La Ley Olimpia castiga la difusión de imágenes íntimas reales sin consentimiento. El caso de Córdoba tuvo que encuadrarse como “lesiones graves calificadas por mediar violencia de género”, argumentando que el impacto psicológico en las víctimas —menores de edad que desarrollaron estrés postraumático, ansiedad, aislamiento y vergüenza persistente— constituía una lesión grave.
Es una interpretación creativa del fiscal, pero revela el problema: estamos estirando figuras penales que no fueron diseñadas para este fenómeno.
El artículo 128 y su interpretación restrictiva
Algunos fiscales intentan encuadrar los deepfakes pornográficos de menores bajo el artículo 128 del Código Penal, que sanciona la producción, distribución y tenencia de material de abuso sexual infantil (MASI).
Pero hay un obstáculo técnico-jurídico: el artículo 128 fue redactado pensando en imágenes reales. Cuando Argentina adhirió al Convenio de Budapest a principios de siglo, el debate era si debían sancionarse también los “dibujos” de contenido sexual infantil. El país optó por proteger solo imágenes reales, porque “lo que protege la norma es la integridad sexual de niños y niñas”, según explicó el fiscal Horacio Azzolin de la Unidad Fiscal Especializada en Ciberdelincuencia (UFECI).
Los deepfakes generados por IA no son imágenes “reales” en el sentido tradicional. No documentan un abuso que ocurrió. Son creaciones sintéticas. Y eso deja a los fiscales sin herramientas claras.
“La legislación actual está pensada para proteger a víctimas de abusos que efectivamente ocurrieron. Pero los deepfakes destruyen reputaciones, causan traumas psicológicos graves y perpetúan violencia de género sin que haya existido un acto sexual real. Nuestro Código Penal simplemente no contempla esta realidad, y mientras el Congreso debate, las víctimas quedan desprotegidas.”
Los proyectos que duermen en comisiones
Actualmente hay varios proyectos de ley para llenar este vacío:
La “Ley Belén”, presentada por la diputada Mónica Macha junto con organizaciones como Gentic y el grupo Ley Olimpia Argentina, propone penalizar específicamente los montajes con inteligencia artificial. El proyecto busca complementar la Ley Olimpia agregando una figura penal para quien cree, modifique o difunda imágenes o videos de contenido sexual generados con IA sin consentimiento.
Otros proyectos presentados entre 2023 y 2024 buscan modificar el Código Penal para sancionar “delitos contra la integridad sexual a través del uso de IA”, con penas de hasta 6 años de prisión.
Pero aquí está el problema: varios de estos proyectos perdieron estado parlamentario el 1° de marzo de 2025 sin haber sido debatidos. Pueden ser presentados nuevamente, pero mientras tanto, el vacío legal persiste.
El precedente de San Jerónimo Sud
El caso de Santa Fe sienta un precedente importante. El hombre fue condenado por “injurias en el marco de violencia digital contra la mujer” y deberá pagar una multa de $20.000 (como establece el Código Penal para ese delito) más una reparación económica de $800.000 para las seis víctimas querellantes.
Es la primera condena argentina que aborda directamente deepfakes pornográficos. Pero noten la figura util: “injurias”. Estamos sancionando como si fueran insultos lo que en realidad es una forma sofisticada de violencia sexual digital.
Las víctimas sufrieron depresión, ataques de pánico, separaciones de pareja y tuvieron que cambiar de trabajo. Nilda, una de las querellantes, lo expresó con claridad: “Fue un torbellino de emociones. Nosotras lo hicimos por nosotras y para que ningún hombre haga algo así y le arruine la vida a la gente”.
Qué está haciendo el mundo
Mientras Argentina debate, otros países legislaron:
Reino Unido: La Online Safety Act 2023 estableció como delito la difusión de imágenes manipuladas por IA sin consentimiento. En noviembre de 2025 tipificaron específicamente la creación de imágenes sexuales generadas con IA.
Corea del Sur e Inglaterra: Aprobaron leyes que tipifican como delito poseer y compartir deepfakes sexualmente explícitos, con penas de hasta 7 años de prisión.
España: En 2025 aprobó un anteproyecto que tipifica como delito las “ultrafalsificaciones” —la creación y distribución de videos, fotos o audios manipulados con IA que parecen reales.
California, Estados Unidos: Estableció como delito la creación y distribución de imágenes fotorrealistas de partes íntimas o actos sexuales generados por computadora.
La Unión Europea contempló esta problemática en el AI Act, aunque no establece mecanismos penales específicos. Por eso están trabajando en normativa complementaria.
El debate jurídico que necesitamos tener
Desde mi perspectiva, hay tres cuestiones jurídicas fundamentales que Argentina debe resolver:
Primero, el bien jurídico protegido. ¿Protegemos la integridad sexual de personas contra hechos que efectivamente ocurrieron (como hace el artículo 128 actual)? ¿O expandimos la protección a la dignidad, la imagen y la reputación sexual incluso cuando el contenido es sintético?
Mi posición: debemos proteger ambos. Un deepfake pornográfico no documenta un abuso real, pero causa daños reales y verificables. Las víctimas desarrollan trastornos psicológicos graves. Sus vidas se destruyen cuando ese contenido se indexa en buscadores asociado a sus nombres. El derecho no puede mirar para otro lado porque la tecnología usada es “nueva”.
Segundo, la tipicidad de la conducta. ¿Penalizamos solo la difusión (como hace la Ley Olimpia con imágenes reales)? ¿O también la mera creación, aunque no se difunda?
Aquí el debate es más complejo. Soy partidario de penalizar la creación misma, especialmente cuando involucra menores. No podemos esperar a que el material se difunda para actuar. Pero reconozco que esto plantea desafíos de prueba y de invasión a la privacidad en investigaciones.
Tercero, la gradación de la pena según la víctima. El proyecto “Ley Belén” y otros proponen penas agravadas cuando la víctima es menor de edad. Esto tiene sentido desde la protección especial que merecen los menores, pero debemos cuidar no crear un sistema donde los deepfakes de adultos queden sub-sancionados.
La dimensión de género que no podemos ignorar
Los números son contundentes: según el informe State of Deepfake 2023 de Security Hero, el 99% del contenido deepfake pornográfico afecta a mujeres. La cantidad de deepfakes sexuales aumentó 464% en 2023.
En Argentina, el equipo de Ley Olimpia contabilizó al menos 30.000 grupos que propagan material íntimo, sexual y de explotación de niñas, mujeres y adolescentes, en muchos casos creado con IA.
Esto no es un problema tecnológico neutral. Es una manifestación actualizada de violencia de género. Los perpetradores son abrumadoramente hombres. Las víctimas son abrumadoramente mujeres. Y la tecnología simplemente democratizó el acceso a una forma de violencia que antes requería más recursos.
Cualquier legislación sobre deepfakes debe incorporar perspectiva de género. No como un agregado cosmético, sino como reconocimiento de que estamos frente a una forma de violencia sexual digital que perpetúa desigualdades estructurales.
El rol de la educación que nadie quiere asumir
Mariana Savid, psicopedagoga especialista en violencia digital, lo expresó con claridad cuando analizó el caso de Córdoba: “Los chicos sienten que un ‘fake’ es un chiste. No ven la gravedad hasta que le ocurre a alguien cercano”.
Hay aplicaciones que pueden “desnudarte en segundos”. Están al alcance de cualquier adolescente con un smartphone. Y muchos chicos las usan sin comprender las consecuencias legales y el daño que causan.
La Educación Sexual Integral (ESI) debe incorporar urgentemente contenidos sobre violencia digital, deepfakes y uso responsable de IA. Pero esto requiere:
Capacitar a docentes que muchas veces saben menos de tecnología que sus alumnos
Actualizar constantemente los contenidos porque la tecnología evoluciona más rápido que los programas educativos
Superar las resistencias ideológicas que todavía obstaculizan la implementación plena de la ESI
“La solución no es tecnológica, es educativa”, advirtió Savid. “Si no, vamos a tener un ‘inframundo digital’ lleno de violencias disfrazadas de bromas”.
Conclusión: el costo de la inacción legislativa
Mientras escribo esto, hay chicos en escuelas argentinas creando deepfakes pornográficos de sus compañeras. Hay mujeres descubriendo que su imagen está asociada a contenido sexual en internet que nunca consintieron. Y los fiscales están haciendo malabares interpretativos para encuadrar estos casos en figuras penales diseñadas para otra época.
El Congreso Nacional tiene proyectos sobre su escritorio. La sociedad civil y organizaciones especializadas han hecho su parte, identificando el problema y proponiendo soluciones. Los fiscales y jueces han demostrado con los casos de Córdoba y Santa Fe que están dispuestos a actuar con las herramientas disponibles.
Lo que falta es voluntad política para tratar el tema con la urgencia que merece.
Cada día que pasa sin legislación específica es un día más en el que víctimas quedan desprotegidas. Es un día más en el que los perpetradores saben que la probabilidad de enfrentar consecuencias reales es baja. Es un día más en el que el mensaje que enviamos como sociedad es: “la tecnología avanza más rápido que nuestra capacidad de proteger derechos fundamentales”.
Argentina puede aprender de los errores y aciertos de otros países. Podemos diseñar una legislación que proteja efectivamente a las víctimas sin caer en neopunitivismo irreflexivo. Podemos equilibrar libertad tecnológica con responsabilidad por el daño causado.
Pero primero tenemos que decidir actuar. Y el momento es ahora.
Si fuiste víctima de deepfakes o violencia digital, podés denunciar en la Línea 137 (opción 6 para violencia de género) o ante la UFECI (Unidad Fiscal Especializada en Ciberdelincuencia). También podés contactar a organizaciones especializadas como Ley Olimpia Argentina para asesoramiento y acompañamiento.
Fuentes y referencias
Casos judiciales argentinos:
Chequeado (25/06/2025): “Deepfake en escuelas: el caso del joven que irá a juicio por crear con IA imágenes pornográficas falsas de sus compañeras“
LA NACION (Octubre 2025): “Un hombre fue condenado por crear deepfakes porno de más de 80 mujeres en un pueblo de Santa Fe“
Marco legal argentino:
Chequeado (06/01/2025): “Deepfakes y adolescentes: existe un vacío legal sobre los videos con contenido sexual creados con IA y su difusión en redes“
LA NACION (19/02/2025): “El derecho y la irrupción de los deepfakes“ - Por Pablo Palazzi
Normativa argentina:
Ley 27.736 - Ley Olimpia: “Modificación de la Ley 26.485 - Violencia Digital“
Ley 26.485: “Ley de Protección Integral para Prevenir, Sancionar y Erradicar la Violencia contra las Mujeres“
Contexto y estadísticas:
Agencia de Noticias Científicas UNQ (29/07/2025): “Porno con IA y WhatsApp a tu abuela: así funciona la nueva industria de la sextorsión“
Unidiversidad: “Deepfakes e inteligencia artificial: el vacío legal que expone a adolescentes en las redes sociales“
Escuela Martín Zapata: “Deepfakes e inteligencia artificial: el vacío legal que expone a adolescentes en las redes sociales“
Security Hero: “State of Deepfake 2023” - Informe sobre el aumento del 464% en deepfakes pornográficos
Legislación internacional:
Reino Unido: “Online Safety Act 2023“
Unión Europea: “AI Act - Shaping Europe’s digital future“
Convenio de Budapest: “Council of Europe Convention on Cybercrime“
Proyectos legislativos argentinos:



