Firmaste un NDA, pero se lo contás todo a la inteligencia artificial
Tus empleados ya le cuentan secretos corporativos a un chatbot. Con la llegada de los agentes autónomos, el problema está por volverse incontrolable.
Un ingeniero de Samsung necesitaba corregir un error en el código fuente de un chip de semiconductores. Hizo lo que millones de empleados hacen cada día sin pensarlo demasiado: copió el código confidencial y lo pegó en ChatGPT.
Tres semanas después, otro colega subió las minutas de una reunión interna a la misma plataforma. Un tercero ingresó secuencias de prueba para detectar defectos en equipos propietarios.
En menos de un mes, tres empleados habían filtrado información protegida por acuerdos de confidencialidad a un sistema de inteligencia artificial controlado por un tercero. Samsung terminó prohibiendo el uso de herramientas de IA generativa para todo su personal.
El caso Samsung no fue un accidente aislado. Fue un espejo.
El confesionario digital: cuando el empleado le cuenta todo al chat
Según un informe de LayerX Security publicado en 2025, el 77% de los empleados que utilizan herramientas de IA generativa pegan información corporativa confidencial en esos sistemas. Más de la mitad de esos eventos involucran datos sensibles de la empresa: listas de clientes, cifras financieras, fragmentos de código fuente, estrategias internas.
Lo más alarmante es que el 82% de estas filtraciones ocurre desde cuentas personales que no están registradas en los sistemas de gestión de identidad empresarial. Para los equipos de seguridad y cumplimiento normativo, estas fugas de datos son completamente invisibles.
Las situaciones se repiten con una naturalidad que debería preocuparnos. Un ejecutivo pega el documento de estrategia 2025 de su empresa para que ChatGPT le arme una presentación en PowerPoint.
Un médico ingresa el nombre de un paciente y su diagnóstico para que la IA le redacte una carta a la aseguradora. Un abogado copia un borrador de contrato con cláusulas sensibles para que el chatbot lo revise y simplifique. Un contador sube un balance confidencial para que la herramienta lo analice. Nadie tiene intención de filtrar nada. Todos están, simplemente, tratando de ser más productivos.
Y ahí radica la ironía que me resulta fascinante y alarmante en partes iguales. Las empresas invierten recursos significativos en redactar acuerdos de confidencialidad sofisticados, con cláusulas de no divulgación minuciosas, penalidades por incumplimiento y jurisdicciones pactadas para eventuales disputas.
El empleado firma con solemnidad. Y al día siguiente llega a su escritorio y, con la mejor de las intenciones, le entrega esa misma información protegida a un modelo de lenguaje operado por un tercero, en otra jurisdicción, sin supervisión y sin dejar rastro auditable.
Mientras tanto, un dato del informe Clio Legal Trends confirma la brecha: el 79% de los profesionales legales utilizan herramientas de IA en su práctica, pero solo el 21% de las firmas tiene políticas formales que regulen su uso. Esa distancia entre adopción y gobernanza es un terreno fértil para desastres. Y según datos de Concentric AI, herramientas de IA generativa como Microsoft Copilot expusieron cerca de tres millones de registros sensibles por organización durante el primer semestre de 2025.
¿Pegar texto en ChatGPT viola tu NDA? La respuesta que nadie quiere escuchar
Desde el punto de vista del derecho argentino, la respuesta es incómoda pero clara. Los acuerdos de confidencialidad, tal como se regulan bajo el Código Civil y Comercial de la Nación, están diseñados para un paradigma de divulgación entre personas. La cláusula típica de un NDA establece que el receptor no divulgará información confidencial a terceros sin consentimiento previo por escrito del divulgador. Cuando un empleado ingresa esa información en una herramienta de IA pública, la transmite a un proveedor externo que opera en otra jurisdicción.
La pregunta jurídica relevante es si esa transmisión constituye una divulgación a un tercero en los términos del acuerdo. Desde mi perspectiva profesional, la respuesta es afirmativa. Como han señalado analistas especializados, el problema jurídico no radica en la intención ni en si la herramienta almacena o comparte la información posteriormente.
La exposición legal surge de la transmisión no autorizada en sí misma. No importa que el empleado haya actuado con las mejores intenciones de productividad. Pegar información confidencial en un sistema de un tercero sin autorización es, técnicamente, un incumplimiento contractual.
La Ley 25.326 de Protección de Datos Personales agrega otra capa de complejidad. Si la información confidencial incluye datos personales de clientes, empleados o terceros, su transferencia a un sistema de IA operado desde el exterior constituye una transferencia internacional de datos que requiere, como mínimo, que el país destinatario ofrezca niveles adecuados de protección. La mayoría de los proveedores de modelos de lenguaje procesan datos a través de servidores distribuidos en múltiples jurisdicciones, muchas de las cuales no cuentan con legislación equivalente a la argentina. Esto no es un detalle técnico menor: es una potencial infracción regulatoria.
Desde la perspectiva del derecho laboral argentino, la Ley 20.744 de Contrato de Trabajo es igualmente clara. El empleado que filtra información confidencial a una herramienta de IA está incumpliendo el deber de fidelidad previsto en el artículo 85 y la obligación de guardar secreto del artículo 86. Esto podría configurar una injuria grave en los términos del artículo 242, habilitando al empleador a disponer el despido con justa causa.
Pero el problema real es que, como demuestran las estadísticas, la inmensa mayoría de estas filtraciones son involuntarias, bienintencionadas e indetectables con herramientas de seguridad tradicionales.
El empleado no tiene intención de violar su NDA. Simplemente está usando la herramienta más eficiente disponible para hacer su trabajo.
Lo que la Argentina y el mundo intentan hacer al respecto
La Agencia de Acceso a la Información Pública (AAIP), a través de su Resolución 161/2023, creó el Programa de Transparencia y Protección de Datos Personales en el uso de la Inteligencia Artificial. La guía publicada por la AAIP exige que tanto entidades públicas como privadas realicen evaluaciones de impacto antes de implementar sistemas basados en IA, respetando principios de transparencia, explicabilidad y protección de datos en todo su ciclo de vida.
Cabe preguntarse cuántas empresas argentinas que permiten a sus empleados utilizar herramientas de IA generativa han realizado estas evaluaciones. Me atrevo a decir que muy pocas.
En el Congreso argentino, varios proyectos buscan actualizar el régimen. Los impulsados por legisladores como Pablo Carro y Martín Doñate proponen una reforma integral de la Ley 25.326, que cumplió 25 años en 2025 y fue diseñada para un mundo que ya no existe. Otros proyectos, como los de la senadora Silvia Sapag y el diputado Daniel Gollán, plantean clasificar los sistemas de IA en categorías de riesgo siguiendo el modelo europeo.
En la Unión Europea, el RGPD y el AI Act están construyendo un marco que exige evaluaciones de impacto obligatorias, transparencia en el procesamiento de datos y el derecho de las personas a no estar sujetas a decisiones exclusivamente automatizadas.
En Estados Unidos, la ABA Formal Opinion 512 de julio de 2024 estableció que los abogados tienen la obligación ética de comprender las herramientas de IA que utilizan y que el consentimiento genérico en cartas de compromiso es insuficiente. Según investigaciones de Stanford, las tasas de error son del 17% para Lexis+ AI y del 34% para Westlaw AI-Assisted Research, herramientas específicas del sector legal. Más de 700 casos judiciales en el mundo ya involucran alucinaciones de IA.
Pero mientras el debate legislativo avanza a su ritmo habitual, la tecnología ya está instalada en los escritorios de miles de profesionales argentinos que la usan sin marco regulatorio específico.
Y eso que hasta ahora solo hablamos de chats. Ahora llegan los agentes.
Todo lo que describí hasta acá sucede con chatbots. Herramientas conversacionales donde el usuario activamente copia y pega información.
Es decir, el problema actual requiere una acción deliberada del empleado: abrir el chat, seleccionar el texto confidencial, pegarlo. Es grave, pero al menos tiene un componente humano identificable.
Lo que se viene es de una naturaleza radicalmente distinta.
OpenClaw apareció en noviembre de 2025 y en pocos meses se convirtió en el agente autónomo de IA de código abierto más popular del mundo, con más de 180.000 estrellas en GitHub y 1,5 millones de agentes creados.
Pero OpenClaw no es un chatbot. Es un agente que se ejecuta localmente en la computadora del usuario y que tiene acceso directo al sistema de archivos, puede ejecutar comandos en la terminal, controlar el navegador, gestionar correos electrónicos, administrar calendarios y mantener memoria persistente entre sesiones. Se conecta a WhatsApp, Telegram, Slack, Discord y actúa de forma autónoma en nombre del usuario.
La diferencia conceptual es abismal. Con un chatbot, el empleado decide qué información comparte. Con un agente autónomo como OpenClaw, el agente tiene acceso directo a todo: correos con información privilegiada, borradores de contratos, documentos sujetos a NDA, estrategias de negocio, datos de clientes. No necesita que nadie le pegue nada. Ya puede leerlo todo por sí mismo.
El equipo de investigación de seguridad de Cisco fue contundente en su evaluación: desde el punto de vista de capacidades, OpenClaw es un avance genuino; desde la perspectiva de seguridad, es una pesadilla absoluta.
La firma Bitsight detectó más de 30.000 instancias de OpenClaw expuestas públicamente en internet en apenas dos semanas de análisis. Astrix Security identificó más de 42.000 instancias filtrando claves de API, historiales de conversación y credenciales de cuentas.
Investigadores encontraron 386 habilidades maliciosas entre las aproximadamente 3.000 disponibles en ClawHub, el marketplace oficial de plugins. Kaspersky identificó 512 vulnerabilidades en una sola auditoría de seguridad, ocho de ellas críticas.
OpenClaw almacena credenciales en texto plano, no tiene autenticación incorporada por defecto y confía en localhost sin verificación. Un ataque a la cadena de suministro denominado ClawHavoc logró distribuir malware a través de plugins que parecían legítimos, robando claves de API que otorgaban control remoto completo sobre los agentes y todos los servicios conectados.
Imaginemos el escenario que no es hipotético sino inminente: un profesional argentino conecta un agente autónomo a su correo corporativo, su calendario, sus plataformas de mensajería y su sistema de archivos para automatizar tareas rutinarias. Todo lo que pasa por esos canales, incluida información protegida por acuerdos de confidencialidad, queda accesible al agente. Si la instancia está mal configurada, si un plugin malicioso compromete el sistema, o simplemente si los datos son procesados por APIs externas sin controles adecuados, toda esa información confidencial queda expuesta sin que nadie haya pegado nada en ningún chat.
Del NDA tradicional que preveía divulgaciones entre personas, pasamos al chatbot donde el empleado voluntariamente comparte información. Ahora entramos en la era donde un agente con permisos de sistema accede a la información confidencial de forma autónoma y la procesa a través de servicios de terceros sin intervención humana directa.
La verdadera ironía de nuestra época no es que los acuerdos de confidencialidad sean insuficientes. Es que hemos construido un ecosistema tecnológico donde la forma más natural de ser productivo consiste en entregar información protegida a sistemas que operan fuera de cualquier marco contractual, regulatorio o jurisdiccional. Y lo que viene es todavía peor: ya ni siquiera va a hacer falta que el empleado entregue la información. El agente va a ir a buscarla solo.
Adaptarse o firmar papeles que no sirven para nada
Los acuerdos de confidencialidad necesitan evolucionar con urgencia. Ya no alcanza con prohibir la divulgación a terceros en términos genéricos. Los NDA modernos necesitan cláusulas específicas que prohíban el ingreso de información confidencial en herramientas de IA sin autorización previa, que impidan el uso de esos datos para entrenar modelos, que exijan estándares técnicos de seguridad verificables para las herramientas permitidas, y que establezcan protocolos de notificación y remediación para filtraciones accidentales. También deben contemplar expresamente el uso de agentes autónomos con acceso a sistemas corporativos.
Las empresas argentinas necesitan políticas de uso de IA que no se limiten a prohibiciones genéricas. Prohibir la IA por completo es irreal y contraproducente: lo que se necesita son guardarraíles claros que definan qué herramientas están autorizadas, para qué propósitos, con qué nivel de información y bajo qué controles. Y estas políticas deben actualizarse para contemplar no solo chatbots sino agentes autónomos con permisos de sistema.
Los abogados tenemos una responsabilidad particular. No podemos asesorar a nuestros clientes sobre protección de datos y confidencialidad si nosotros mismos estamos pegando escritos judiciales y estrategias de litigio en herramientas de IA sin evaluar sus políticas de privacidad, retención de datos y jurisdicción aplicable.
Y Argentina necesita urgentemente actualizar su marco normativo: la Ley 25.326 fue pensada para un mundo donde la información se divulgaba de persona a persona, no donde un agente autónomo con acceso root la procesa silenciosamente a través de APIs en servidores distribuidos por el planeta.
La era de los agentes autónomos de IA ya llegó. Los acuerdos de confidencialidad que firmamos ayer necesitan responder a las amenazas de hoy y a las que se vienen mañana. Si no nos adaptamos, los NDA van a terminar siendo lo que muchos ya sospechan: un ritual jurídico que cumplimos por costumbre mientras la información fluye libremente hacia sistemas que nadie controla.
Fuentes y referencias
LayerX Security, “Enterprise AI and SaaS Data Security Report 2025”, octubre de 2025. https://www.esecurityplanet.com/news/shadow-ai-chatgpt-dlp/
Dark Reading, “Samsung Engineers Feed Sensitive Data to ChatGPT, Sparking Workplace AI Warnings”, 2023. https://www.darkreading.com/vulnerabilities-threats/samsung-engineers-sensitive-data-chatgpt-warnings-ai-use-workplace
Help Net Security, “AI chatbots are sliding toward a privacy crisis”, octubre de 2025. https://www.helpnetsecurity.com/2025/10/31/ai-chatbots-privacy-and-security-risks/
Cisco Blogs, “Personal AI Agents like OpenClaw Are a Security Nightmare”, febrero de 2026. https://blogs.cisco.com/ai/personal-ai-agents-like-openclaw-are-a-security-nightmare
Bitsight, “OpenClaw Security: Risks of Exposed AI Agents Explained”, febrero de 2026. https://www.bitsight.com/blog/openclaw-ai-security-risks-exposed-instances
SecurityWeek, “OpenClaw Security Issues Continue as SecureClaw Open Source Tool Debuts”, febrero de 2026. https://www.securityweek.com/openclaw-security-issues-continue-as-secureclaw-open-source-tool-debuts/
VentureBeat, “OpenClaw proves agentic AI works. It also proves your security model doesn’t”, febrero de 2026. https://venturebeat.com/security/openclaw-agentic-ai-security-risk-ciso-guide
Sapience Law, “Are You Violating Your NDA or Ethical Obligations by Using AI Tools?”, mayo de 2025. https://sapiencelaw.com/ai-nda-confidentiality-risk/
IAPP, “Novedades legislativas en Argentina sobre protección de datos personales e inteligencia artificial”, 2025. https://iapp.org/news/a/novedades-legislativas-en-argentina-sobre-protecci-n-de-datos-personales-e-inteligencia-artificial
Argentina.gob.ar, “Guía de la AAIP para usar la Inteligencia Artificial de manera responsable”, septiembre de 2025. https://www.argentina.gob.ar/noticias/guia-de-la-aaip-para-usar-la-inteligencia-artificial-de-manera-responsable
Debevoise & Plimpton, “An Employee Just Uploaded Sensitive Data to a Consumer AI Tool – Now What?”, abril de 2025. https://www.debevoisedatablog.com/2025/04/16/an-employee-just-uploaded-sensitive-data-to-a-consumer-ai-tool-now-what/
Jones Walker LLP, “Ten AI Predictions for 2026”, 2026. https://www.joneswalker.com/en/insights/blogs/ai-law-blog/ten-ai-predictions-for-2026-what-leading-analysts-say-legal-teams-should-expect.html
Astrix Security, “OpenClaw & MoltBot: The First AI Agent Security Nightmare”, febrero de 2026. https://astrix.security/learn/blog/openclaw-moltbot-the-rise-chaos-and-security-nightmare-of-the-first-real-ai-agent/



