Europa tiene la ley de IA más ambiciosa del mundo. Y no puede aplicarla.
Mientras 19 países europeos no designaron reguladores, Rosario (Argentina) se convierte en la primera ciudad argentina en regular la inteligencia artificial ante la ausencia de marco nacional.
La Ley de Inteligencia Artificial de la Unión Europea (AI Act) entró en vigor en agosto de 2025 como el primer marco regulatorio integral del mundo sobre IA. Es una norma ambiciosa, técnicamente sofisticada, que clasifica sistemas de IA por niveles de riesgo y establece multas de hasta 35 millones de euros o el 7% de la facturación anual por incumplimiento. Suena impresionante. Hay un solo problema: 19 de los 27 países de la Unión Europea no designaron reguladores antes del deadline del 2 de agosto de 2025.
Alemania, Francia, Bélgica, Italia, Austria. Todos sin autoridad competente anunciada. La Comisión Europea prometió publicar la lista de reguladores nacionales y nunca lo hizo. Mientras tanto, al otro lado del Atlántico, el Concejo Municipal de Rosario aprobó el 20 de noviembre una ordenanza que convierte a la ciudad santafesina en la primera de Argentina en regular el uso de inteligencia artificial en la gestión pública. Sin grandes aspavientos, sin pretensiones de liderazgo global, pero con algo que Europa no tiene: capacidad de implementación inmediata.
Esta paradoja regulatoria revela algo fundamental sobre el derecho tecnológico contemporáneo: entre la regulación aspiracional y la regulación pragmática, entre Bruselas y Rosario, hay un abismo que no se mide en kilómetros sino en efectividad jurídica.
El AI Act europeo: una catedral sin sacerdotes
El Reglamento (UE) 2024/1689 es una obra maestra de ingeniería legislativa. Establece cuatro categorías de riesgo para sistemas de IA (inaceptable, alto, limitado y mínimo), prohíbe usos como la puntuación ciudadana y el reconocimiento de emociones en el lugar de trabajo, e impone obligaciones estrictas de transparencia y supervisión humana para sistemas de alto riesgo. Todo esto respaldado por el principio europeo de protección de derechos fundamentales como eje estructural.
Pero aquí está el problema: según datos de Clyde & Co para agosto de 2025 solo tres países habían designado formalmente autoridades supervisoras. España creó la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) en 2023, mientras que Francia y Alemania recurrieron a organismos existentes (CNIL y BfDI). El resto de Europa está en un limbo regulatorio.
Francia, por caso, no ha dado información sobre sus planes de regulador. Irlanda planea tener ocho reguladores de IA. Letonia podría llegar a 17 organismos de supervisión. La gobernanza multiparticipativa del AI Act — esa característica que en el papel suena a descentralización democrática— en la práctica se traduce en fragmentación y parálisis.
Y viene lo peor: la Comisión Europea presentó en noviembre de 2025 un paquete de “simplificación” del corpus normativo digital que propone modificaciones al AI Act y al RGPD. Bajo presión de las grandes tecnológicas estadounidenses y de la Casa Blanca, Bruselas está dando marcha atrás antes siquiera de aplicar las normas que acaba de aprobar.
“Una ley que no se puede aplicar no es derecho vivo: es arquitectura legal aspiracional que termina funcionando como barrera de entrada para europeos y salvoconducto para gigantes tecnológicos que pueden costear el cumplimiento formal”.
Rosario: pragmatismo regulatorio ante el vacío nacional
Mientras Europa diseñaba su catedral regulatoria, Rosario aprobaba una ordenanza municipal que crea el “Programa Municipal de Innovación con IA” y establece principios de transparencia, explicabilidad, seguridad y supervisión humana para cualquier sistema de inteligencia artificial utilizado en la administración pública municipal.
La ordenanza no es una copia del AI Act. Es más modesta en alcance pero infinitamente más pragmática. Habilita el uso de IA en procesos administrativos, análisis predictivo, monitoreo inteligente y atención ciudadana, pero con controles claros: auditorías periódicas para detectar sesgos, protección de datos personales conforme a la Ley 25.326, y obligación de informar expresamente cuando los ciudadanos interactúen con sistemas automatizados.
La ciudad ya usa MuniBot (un chatbot para atención ciudadana) y sistemas de videovigilancia inteligente. La ordenanza les da marco legal y los somete a control. Además, establece mecanismos de capacitación para funcionarios, alfabetización digital para ciudadanos, y faculta a la Municipalidad para gestionar fondos y convenios con universidades, empresas tecnológicas y organizaciones civiles. Es, en definitiva, regulación habilitante en lugar de restrictiva.
Rosario forma parte de la Coalición de Ciudades por la IA en Argentina (CIIAR), junto con Córdoba, Mendoza, Neuquén y otras seis ciudades. Pero fue la primera en llevar el proyecto al cuerpo legislativo y aprobarlo. ¿Por qué? Porque ya estaba implementando IA y necesitaba un marco normativo claro para no operar en zona gris legal.
Argentina: nueve proyectos de ley y cero regulación nacional
Argentina no tiene una ley nacional de inteligencia artificial. Tampoco tiene una estrategia nacional. Lo que tiene son al menos nueve proyectos de ley presentados en el Congreso cinco de los cuales perdieron estado parlamentario el 1 de marzo de 2025. Desde 2023 vienen ingresando iniciativas que establecen prohibiciones, registros nacionales de sistemas de IA, principios de transparencia y responsabilidad algorítmica. Ninguno prosperó.
La provincia de Buenos Aires dio un paso adelante en noviembre de 2025 con la Resolución 9/2025 que regula el desarrollo, contratación y uso de tecnologías de IA en el sector público provincial. La norma fija principios de transparencia, privacidad, trazabilidad y responsabilidad, clasifica tecnologías por niveles de riesgo, prohíbe usos inaceptables y crea un Registro Provincial de Inteligencia Artificial. Es el primer marco regulatorio provincial del país.
Pero estamos hablando de una resolución administrativa, no de una ley. Su alcance se limita al ámbito público bonaerense. No regula a empresas privadas que desarrollan IA, no establece sanciones significativas, no crea una autoridad de aplicación con poder real. Es un avance, sí, pero insuficiente.
Lo curioso es que Argentina tiene precedentes normativos aplicables. El artículo 1112 del Código Civil y Comercial establece el régimen de responsabilidad objetiva por daños causados por el riesgo o vicio de la cosa. Perfectamente aplicable a algoritmos defectuosos.
El artículo 1710 regula la responsabilidad derivada de la intervención de cosas. La Ley 24.240 de Defensa del Consumidor obliga a informar sobre características esenciales del producto y establece responsabilidad solidaria en la cadena de comercialización.
Todo esto existe. Lo que no existe es voluntad de aplicarlo sistemáticamente a sistemas de IA ni de crear institucionalidad específica para supervisar su desarrollo. Mientras tanto, empresas como Mercado Libre, Globant y Despegar implementan IA en decisiones crediticias, recursos humanos y pricing sin marco regulatorio específico. Operan en base a principios generales del derecho común y normas de protección de datos personales, pero sin supervisión sectorial.
El dilema regulatorio: ¿prohibir, habilitar o ignorar?
La regulación de IA enfrenta un trilema. Primer camino: prohibicionismo aspiracional al estilo AI Act, con categorías de riesgo sofisticadas, multas millonarias y gobernanza fragmentada que termina siendo inaplicable. Segundo camino: desregulación libertaria que confía en que el mercado y la responsabilidad civil ex post resolverán los problemas, ignorando las asimetrías informativas estructurales entre desarrolladores y usuarios. Tercer camino: regulación pragmática que habilita usos específicos bajo controles claros y supervisión efectiva.
Rosario eligió el tercer camino. Europa intentó el primero y está retrocediendo al segundo bajo presión corporativa. Argentina está en el peor lugar posible: la indefinición.
Un informe de Niubox sobre desafíos regulatorios en América Latina reveló que la región está regulando desde una mirada que privilegia el control y la restricción, replicando modelos extranjeros sin adaptarlos a nuestras capacidades institucionales. Más de 200 iniciativas legislativas en 13 países latinoamericanos muestran el mismo patrón: legislar sin desarrollar talento, imponer obligaciones sin fortalecer instituciones, copiar sin adaptar.
El resultado es previsible: la IA no reduce brechas, las profundiza. Porque mientras Europa discute cuántos reguladores necesita y Argentina acumula proyectos de ley en cajones legislativos, OpenAI, Anthropic, Google y Microsoft definen de facto los estándares de funcionamiento de sistemas que ya están embebidos en la infraestructura digital de nuestras sociedades.
Responsabilidad civil y el fantasma del daño algorítmico
Desde mi perspectiva como abogado argentino, lo más inquietante no es la ausencia de ley específica de IA. Es la falta de preparación del sistema judicial para litigar daños algorítmicos. ¿Cómo pruebo que un algoritmo de scoring crediticio me discriminó por mi código postal? ¿Cómo accedo a los datos de entrenamiento de un sistema de IA que rechazó mi solicitud laboral? ¿Quién responde cuando un chatbot municipal brinda información errónea que me perjudica?
El artículo 1757 del Código Civil y Comercial establece que toda persona tiene el deber de tomar las precauciones necesarias para evitar causar un daño no justificado. ¿Cuáles son las precauciones necesarias en el desarrollo de IA? El código no lo dice. La jurisprudencia argentina no tiene precedentes significativos. Los tribunales argentinos están desarmados.
Europa intentó resolver esto con el AI Act estableciendo obligaciones de evaluación de conformidad, documentación técnica exhaustiva y registros de actividad para sistemas de alto riesgo. Suena bien. Pero si no hay reguladores designados, si la Comisión está retrocediendo, si las empresas pueden elegir entre seguir el código de buenas prácticas voluntario o demostrar cumplimiento por otros medios, ¿de qué sirve?
La ordenanza de Rosario, en cambio, establece algo simple pero poderoso: auditorías periódicas a cargo de la Municipalidad para verificar sesgos y errores. No es sofisticado, pero es ejecutable. Crea responsabilidad ex ante en lugar de confiar únicamente en la responsabilidad civil ex post. Y lo más importante: genera registros y documentación que servirán como prueba si eventualmente hay que litigar daños.
La cuestión constitucional: IA y derechos fundamentales
El artículo 43 de la Constitución Nacional establece el habeas data como garantía para acceder, suprimir, rectificar o preservar datos personales. ¿Aplica al derecho a conocer la lógica de decisiones automatizadas que me afectan? La Constitución no lo dice expresamente, pero el espíritu de la norma apunta en esa dirección. El artículo 19 protege las acciones privadas de los hombres. ¿Incluye el derecho a no ser perfilado algorítmicamente sin consentimiento? Razonablemente, sí.
Europa resolvió esto incorporando al AI Act principios ya presentes en el RGPD: derecho a no estar sujeto a decisiones basadas únicamente en tratamiento automatizado, derecho a la explicación, derecho de oposición. Argentina tiene la Ley 25.326 de Protección de Datos Personales, pero es pre-IA. Está desactualizada. El proyecto de reforma presentado por la Agencia de Acceso a la Información Pública (AAIP) en 2022 busca ampliar la definición de datos sensibles y exigir mayor transparencia en mecanismos de IA, incluyendo el derecho a no estar sujeto a decisiones algorítmicas. Ese proyecto está en tratamiento en Diputados desde junio de 2023. Dos años y medio después, nada.
Mientras tanto, la Resolución 161/2023 de la AAIP creó el “Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial”. Es un programa de análisis, sensibilización y fortalecimiento de capacidades. No es una norma vinculante. No crea obligaciones exigibles. No tiene mecanismos de enforcement.
Argentina enfrenta una situación paradójica: tenemos principios constitucionales robustos de protección de derechos fundamentales, pero carecemos de institucionalidad para aplicarlos al ecosistema de IA. Tenemos un sistema de responsabilidad civil sofisticado en el Código Civil y Comercial, pero jueces sin expertise para valorar pruebas de sesgo algorítmico. Tenemos proyectos de ley bien redactados, pero ninguno prospera.
¿Qué deberíamos hacer?
No necesitamos replicar el AI Act. Necesitamos una ley nacional de IA pragmática que haga tres cosas:
Primero, establecer un régimen de responsabilidad específico para desarrolladores y desplegadores de sistemas de IA, con distribución de cargas probatorias adaptada a las asimetrías informáticas. Que el desarrollador de un algoritmo de scoring tenga que demostrar que su sistema no discrimina, no que yo tenga que demostrar que sí lo hace cuando me niegan un crédito.
Segundo, crear una autoridad de aplicación real dentro de la estructura existente (podría ser la AAIP ampliada o un organismo nuevo), con presupuesto, personal técnico capacitado y facultades de investigación y sanción. No otro programa de “sensibilización” sino un regulador con dientes.
Tercero, establecer obligaciones de transparencia graduales según el impacto potencial del sistema. No todos los usos de IA requieren el mismo nivel de escrutinio. Un chatbot de atención al cliente no es lo mismo que un sistema de evaluación de riesgo crediticio o un algoritmo de asignación de turnos médicos. Distintos niveles de riesgo, distintos niveles de control. Pero todos documentados, todos auditables.
La ordenanza de Rosario demuestra que esto es posible a nivel municipal. La Resolución 9/2025 de Buenos Aires muestra que es posible a nivel provincial. ¿Qué falta para que sea posible a nivel nacional? Voluntad política. Y comprensión de que regular IA no es frenar innovación sino generar las condiciones institucionales para que la innovación sea confiable y socialmente útil.
Europa diseñó una ley hermosa e inaplicable. Estados Unidos dejó que el mercado regule y ahora enfrenta crisis de confianza pública en sistemas de IA. China implementó controles estrictos pero opacos que nadie fuera de China puede replicar. América Latina tiene la oportunidad de construir un modelo propio de gobernanza de IA: menos aspiracional que Europa, más institucionalizado que Estados Unidos, más abierto que China.
Pero esa oportunidad se está cerrando. Cada día que pasa sin marco regulatorio es un día más en que sistemas de IA operan sin supervisión, acumulan sesgos sin corrección, toman decisiones sin explicación. Y cuando finalmente tengamos que litigar los daños, será tarde. Porque el daño algorítmico es estructural, acumulativo, difícil de revertir.
Rosario dio el primer paso. Buenos Aires dio el segundo. Ahora le toca al Congreso Nacional dar el tercero. O seguir acumulando proyectos de ley en cajones mientras Europa retrocede, Estados Unidos improvisa y nosotros miramos.
Fuentes y referencias
Comisión Europea. (2025). Ley de Inteligencia Artificial - Marco regulatorio. https://digital-strategy.ec.europa.eu/es/policies/regulatory-framework-ai
ECIJA. (2025). La Ley de IA de la UE está lista. ¿Los reguladores? No tanto. https://www.ecija.com/actualidad-insights/la-ley-de-ia-de-la-ue-esta-lista-los-reguladores-no-tanto/
Le Grand Continent. (Noviembre 2025). Con su paquete digital, la Comisión da marcha atrás en la regulación de la IA. https://legrandcontinent.eu/es/2025/11/19/con-su-paquete-digital-la-comision-da-marcha-atras-en-la-regulacion-de-la-ia/
Concejo Municipal de Rosario. (Noviembre 2025). El Concejo aprobó la regulación del uso de Inteligencia Artificial en la ciudad. https://www.concejorosario.gov.ar
Rosario Plus. (Noviembre 2025). Habilitan la Inteligencia Artificial para trámites y gestión municipal. https://www.rosarioplus.com/actualidad/politica/habilitan-la-inteligencia-artificial-para-tramites-y-gestion-municipal-_a69205cdece318b298ffa2fbf
El Argentino Diario. (Noviembre 2025). Buenos Aires establece la primera regulación oficial de inteligencia artificial en Argentina. https://elargentinodiario.com.ar/ciencia-tecnologia/23/11/2025/buenos-aires-establece-la-primera-regulacion-oficial-de-inteligencia-artificial-en-argentina/
DataGénero. (2025). Regulación IA en Argentina. https://datagenero.org/iaenargentina/
Ámbito Jurídico. (Noviembre 2025). Regulación de la inteligencia artificial en América Latina: entre el control y la oportunidad. https://www.ambitojuridico.com/noticias/comercial/regulacion-de-la-inteligencia-artificial-en-america-latina-entre-el-control-y-la
IBM. (2025). ¿Qué es la Ley de IA de la UE? https://www.ibm.com/es-es/think/topics/eu-ai-act
Parlamento Europeo. (2024). La Eurocámara aprueba una ley histórica para regular la inteligencia artificial. https://www.europarl.europa.eu/news/es/press-room/20240308IPR19015/la-eurocamara-aprueba-una-ley-historica-para-regular-la-inteligencia-artificial



