El "Nuevo Contrato Social" de OpenAI: cuando el lobo propone las reglas del gallinero
Sam Altman acaba de publicar un manifiesto laboral para la era de la superinteligencia. Semana de cuatro días, impuesto a los robots y fondos soberanos.
Todo muy razonable. Excepto que lo propone la empresa que está destruyendo los empleos que promete proteger…
El 6 de abril de 2026, OpenAI publicó un documento de 13 páginas titulado “Industrial Policy for the Intelligence Age: Ideas to Keep People First”. No es un paper académico. No es un blog post de rutina. Es un manifiesto de política pública firmado por la empresa que más está acelerando la llegada de la inteligencia artificial sobrehumana. Y lo hizo en un momento muy preciso: a semanas de una IPO que la valúa en más de 850.000 millones de dólares, en medio del debate legislativo más intenso sobre IA en la historia del Congreso de Estados Unidos, y justo antes de inaugurar un espacio en Washington para “facilitar conversaciones” con legisladores.
La pregunta jurídica relevante no es si las propuestas son buenas o malas. Es quién tiene el poder de diseñar las reglas del juego cuando el árbitro y el jugador son la misma entidad. Es un problema de legitimidad democrática que trasciende cualquier jurisdicción particular: cuando una corporación privada llega primero al debate público con sus propios marcos conceptuales, cualquier respuesta legislativa —en Washington, Bruselas, Buenos Aires o Ciudad de México— tendrá que partir, en algún punto, de ese documento.
Lo que propone OpenAI: un New Deal para la era de la IA
El documento parte de un diagnóstico que merece tomarse en serio aunque provenga de una fuente con intereses evidentes. OpenAI sostiene que los sistemas de inteligencia artificial avanzan hacia un punto en que superarán a los seres humanos en prácticamente cualquier tarea cognitiva, incluso a aquellos que ya utilizan herramientas de IA como asistencia. Si ese diagnóstico es correcto, la escala del desplazamiento laboral que se avecina no tiene precedente histórico moderno.
Ante ese escenario, el documento articula tres propuestas centrales. La primera es el llamado “dividendo de eficiencia”: si una empresa puede hacer con cuatro días lo que antes hacía con cinco gracias a la IA, ese día ganado debería ir al trabajador, no al margen empresarial. La propuesta concreta es impulsar programas piloto de semanas laborales de 32 horas a salario completo, con colaboración entre gobiernos y sindicatos. La segunda propuesta es la reforma fiscal: reducir la dependencia de los impuestos sobre nóminas —que se erosionan cuando el trabajo humano disminuye— y reemplazarlos por gravámenes sobre capital, plusvalías y, especialmente, un nuevo tributo sobre el trabajo automatizado. Si una empresa reemplaza trabajadores con agentes de IA, esa decisión debería generar una contribución fiscal que financie transiciones laborales. La tercera propuesta es la creación de redes de seguridad “auto-disparadas”: cuando los indicadores de desplazamiento laboral crucen umbrales predefinidos, se activan automáticamente prestaciones de desempleo ampliadas y asistencia directa, sin necesidad de legislación nueva en cada crisis.
El documento también incluye una sección que debería preocupar más que todas las demás: OpenAI reconoce explícitamente la existencia de escenarios donde sistemas de IA peligrosos no pueden ser retirados porque son autónomos y capaces de replicarse. Su respuesta es la coordinación con gobiernos mediante “protocolos de contención”. Es la primera vez que una empresa de esta escala reconoce públicamente que podría crear algo que ella misma no puede apagar.
La trampa jurídica: cuando el regulado diseña la regulación
En derecho, hay un principio elemental que rige la legitimidad de las normas: quien tiene un interés directo en el resultado no puede ser árbitro imparcial del proceso. El conflicto de interés no invalida las ideas, pero exige escrutinio reforzado.
OpenAI llegó con sus propuestas, su lenguaje y su marco conceptual antes que cualquier legislador. Ahora cualquier debate en Washington, y por extensión en el mundo, tendrá que partir, en algún punto, de este documento. Eso se llama captura regulatoria. Aquí viene disfrazada de altruismo institucional.
El precedente es relevante: cuando California discutió la SB1047, una ley de gestión de riesgos para sistemas de IA que proponía medidas similares a las que el propio Sam Altman había reclamado ante el Congreso en audiencias previas, OpenAI la opuso activamente. Cuando el AI Act europeo intentó fortalecer la supervisión sobre empresas que desarrollan sistemas de alto riesgo, OpenAI también presionó para debilitar esas cláusulas. La pregunta no es si las propuestas del documento son razonables. Es si los gobiernos pueden confiar en que la empresa que produce el problema diseñe la solución.
El marco jurídico argentino: derechos laborales en tierra de nadie tecnológica
Argentina tiene uno de los regímenes de protección laboral más robustos de América Latina. La Ley de Contrato de Trabajo N° 20.744 establece garantías extensas para los trabajadores en relación de dependencia: derecho a la estabilidad, indemnizaciones por despido sin causa, limitaciones a la jornada laboral y derechos sindicales. El problema es que fue diseñada para un mundo donde el desplazamiento laboral tiene cara humana. El empleador que despide puede ser demandado, identificado, intimado. El sistema de IA que reemplaza a diez analistas contables no tiene personería jurídica, no puede ser convocado a una audiencia del SECLO y no paga contribuciones patronales.
La jornada laboral está regulada en la Argentina por la Ley N° 11.544, que fija el máximo en ocho horas diarias y cuarenta y ocho semanales, con excepciones. La semana de cuatro días que propone OpenAI implicaría una modificación sustancial de ese marco: distribuir cuarenta horas en cuatro jornadas, o bien reducir efectivamente la carga horaria. La primera opción ya es posible en Argentina mediante acuerdo entre partes o convenio colectivo; la segunda exigiría reforma legal. Pero el problema más profundo no es la jornada: es que el Código Civil y Comercial de la Nación no contempla al sistema de IA como sujeto de obligaciones, ni como empleador, ni como responsable civil directo cuando sus decisiones generan daño laboral.
El vacío normativo es completo. Si una empresa argentina reemplaza a su equipo de atención al cliente con un sistema de procesamiento de lenguaje natural, ninguna norma vigente obliga a tributar por ese reemplazo. No existe equivalente local al “robot tax” que propone OpenAI. No hay fondo de transición laboral tecnológica. No hay redes de seguridad que se activen automáticamente cuando el desempleo estructural por automatización supera determinado umbral. El ANSES y el sistema de seguridad social están diseñados para responder a crisis cíclicas, no a transformaciones permanentes de la estructura del mercado de trabajo.
Lo que hacen otros países: entre la vanguardia europea y la parálisis estadounidense
La Unión Europea ha adoptado el enfoque más sistemático. El AI Act —Reglamento (UE) 2024/1689— clasifica los sistemas de IA según su nivel de riesgo y establece obligaciones reforzadas para aquellos de alto impacto. A partir del 2 de agosto de 2026 entran en vigor las obligaciones más exigentes, que incluyen auditorías independientes, evaluaciones de impacto y documentación de conformidad. El Reglamento no resuelve directamente el desplazamiento laboral, pero establece un principio que la propuesta de OpenAI ignora estratégicamente: el control debe ser externo, independiente y previo al daño.
Estados Unidos, en cambio, transita el camino opuesto. La administración Trump ha orientado su política de IA hacia la desregulación, eliminando restricciones ejecutivas previas e impulsando la competitividad sobre la precaución. En ese contexto, el documento de OpenAI funciona también como una apuesta política: si el gobierno federal no va a regular, que sea la propia industria la que proponga los marcos. Es una estrategia que tiene nombre en la teoría jurídica anglosajona: regulatory capture through standard-setting.
México, mucho más cerca geográfica y culturalmente de Argentina, acaba de dar un paso distinto. En abril de 2026, la Cámara de Diputados aprobó legislación que protege la voz e imagen de artistas y trabajadores creativos frente al uso de IA, con una excepción para parodia y sátira que no induzca a confusión ni pretenda sustituir al artista en su mercado profesional. Es una regulación sectorial, no sistémica, pero existe. Argentina no tiene ni eso.
Las implicancias globales: el vacío que nadie quiere llenar
El verdadero problema no es que OpenAI haya publicado este documento. El problema es que pudo hacerlo en un vacío. Ningún gobierno del mundo tiene todavía una respuesta sistémica al desplazamiento laboral por automatización masiva. La UE regula los sistemas de IA por nivel de riesgo, pero no aborda la redistribución económica. EE.UU. desregula. América Latina debate sin avanzar. En ese contexto, cualquier actor que llene el vacío con un marco conceptual propio gana una ventaja estructural en el debate regulatorio que seguirá durante años.
Para los países de la región, el escenario es especialmente delicado. Argentina es un buen ejemplo del patrón general: el problema no es la falta de ideas sino la ausencia de prioridad política. En el Congreso Nacional hay proyectos de ley sobre regulación de IA de distintos bloques, incluyendo la iniciativa del diputado Diego Giuliano de abril de 2026, basada en el modelo europeo. Ninguno ha avanzado. Mientras tanto, empresas locales y multinacionales con operaciones en el país ya implementan sistemas de IA que automatizan procesos que antes requerían trabajo humano. El patrón se repite en Brasil, Colombia, Chile y México con distintos grados de avance legislativo pero la misma brecha de fondo: la tecnología avanza más rápido que la respuesta institucional, y quienes definen los marcos mientras los gobiernos dudan son las propias empresas que los necesitan.
La responsabilidad civil que emerge de esta situación es difusa y costosa de litigar. Si un trabajador es despedido porque su función fue automatizada, puede alegar despido sin causa bajo la Ley N° 20.744 y obtener indemnización. Pero no puede atacar jurídicamente la decisión de automatizar, porque esa decisión es lícita bajo el derecho vigente. La empresa ejerce su potestad de organización. El trabajador cobra una indemnización que no alcanza para financiar una reconversión laboral en un mercado que ya cambió.
El concepto de riesgo contractual es particularmente relevante aquí. Los convenios colectivos de trabajo vigentes en Argentina —metalúrgicos, bancarios, de comercio, docentes— no contemplan cláusulas de protección frente a la sustitución tecnológica masiva. No existe en nuestro sistema la figura del “aviso tecnológico”: una obligación de notificación previa y negociación cuando una empresa introduce tecnología que va a eliminar puestos de trabajo de manera estructural. La Constitución Nacional, en su artículo 14 bis, garantiza el derecho al trabajo en términos que podrían fundar ese deber de negociación, pero la jurisprudencia no ha construido esa línea argumental con solidez.
Desde la perspectiva de la protección del consumidor, hay otro ángulo que suele ignorarse: cuando un sistema de IA reemplaza a un trabajador de atención al cliente, las personas que interactúan con ese sistema tienen derecho a saber que no hablan con un ser humano. La Ley N° 24.240 de Defensa del Consumidor prohíbe el engaño y la información falsa o engañosa. Un chatbot que simula ser una persona humana para gestionar reclamos sin revelar su naturaleza podría encuadrar perfectamente en esa prohibición. Es una herramienta existente que las autoridades no están usando.
“La propuesta de OpenAI es inteligente, bien escrita y en varios puntos correcta en el diagnóstico. El problema no es lo que dice: es lo que omite. No propone ningún mecanismo de control externo sobre la propia OpenAI. No explica quién audita los ‘protocolos de contención’. No detalla cómo se evita que el fondo público de riqueza termine siendo administrado por las mismas empresas que lo alimentan. Un New Deal sin Roosevelt es solo una lista de deseos corporativos con lenguaje progresista.”
Propuesta: tres medidas que Argentina podría tomar hoy
No es necesario esperar una ley de IA comprehensiva, que en el mejor de los escenarios demoraría años en aprobarse, reglamentarse y aplicarse. Hay tres intervenciones que podrían implementarse en el marco normativo vigente o con modificaciones menores.
La primera es incorporar al derecho laboral argentino la obligación de consulta previa cuando una empresa introduce tecnología que va a eliminar más del diez por ciento de los puestos de trabajo de una unidad productiva. No se trata de prohibir la automatización, sino de crear un espacio de negociación antes del hecho consumado. Esto es perfectamente compatible con el artículo 14 bis de la Constitución Nacional y con el espíritu de la Ley N° 20.744.
La segunda es extender explícitamente el régimen de defensa del consumidor a las interacciones mediadas por IA. La Secretaría de Comercio podría emitir una resolución interpretativa de la Ley N° 24.240 que establezca la obligación de informar cuando un servicio de atención es prestado por un sistema automatizado, sin necesidad de reforma legislativa.
La tercera, y más estructural, es comenzar a debatir seriamente un fondo de transición tecnológica financiado por un aporte de las empresas que implementen sustitución tecnológica masiva. No como impuesto punitivo, sino como reconocimiento de que la automatización genera externalidades sociales que el mercado no internaliza. La propuesta no es nueva ni radical: es, exactamente, lo que la empresa más poderosa del mundo acaba de admitir que hace falta.
El problema de Argentina no es la falta de marcos jurídicos disponibles. Es la ausencia de voluntad política para usarlos antes de que la urgencia los vuelva insuficientes.
Fuentes y referencias
OpenAI, “Industrial Policy for the Intelligence Age: Ideas to Keep People First”, 6 de abril de 2026. https://openai.com/index/industrial-policy-for-the-intelligence-age/
Infobae, “El creador de ChatGPT publicó el contrato social para sobrevivir a la tecnología que él mismo está desatando”, 7 de abril de 2026. https://www.infobae.com/tecno/2026/04/07/el-creador-de-chatgpt-publico-el-contrato-social-para-sobrevivir-a-la-tecnologia-que-el-mismo-esta-desatando/
TechPolicy Press, “OpenAI’s New ‘Industrial Policy for the Intelligence Age’ is a Policymercial”, 8 de abril de 2026. https://www.techpolicy.press/openais-new-industrial-policy-for-the-intelligence-age-is-a-policymercial/
Euronews, “La receta de OpenAI contra el impacto de la IA: impuestos por el uso de robots y semanas de 4 días”, 7 de abril de 2026. https://es.euronews.com/next/2026/04/07/impuesto-a-robots-y-semana-laboral-de-4-dias-el-plan-de-openai-para-la-economia-de-la-ia
Wwwhatsnew, “OpenAI propone semana de 4 días, ‘impuesto a robots’ y red de seguridad automática”, 9 de abril de 2026. https://wwwhatsnew.com/2026/04/09/openai-semana-4-dias-impuesto-robots-mercado-laboral-superinteligencia/
Exclusiva, “Cuál es el último proyecto de ley para regular la Inteligencia Artificial en la Argentina”, 4 de abril de 2026. https://exclusiva.com.ar/hoy/cual-es-el-ultimo-proyecto-de-ley-para-regular-la-inteligencia-artificial-en-la-argentina-y-cuales-son-sus-pilares/
Parlamento Europeo, Reglamento (UE) 2024/1689 — AI Act, agosto de 2024. https://artificialintelligenceact.eu/es/



