1. Alcance de este documento

Este artículo no pretende abordar un análisis pormenorizado de cada punto del marco legislativo propuesto por la administración Trump para la inteligencia artificial. Su propósito es informar y ordenar la información disponible a cuatro días de su publicación, para contribuir a los debates en torno a políticas públicas vinculadas con la IA.

El 20 de marzo de 2026, la Casa Blanca publicó un documento titulado A National Policy Framework for Artificial Intelligence: Legislative Recommendations. Se trata de un conjunto de recomendaciones legislativas dirigidas al Congreso de los Estados Unidos, no de una ley ni de un reglamento. El documento tiene cuatro páginas y organiza sus propuestas en seis objetivos.

The White House, "President Donald J. Trump Unveils National AI Legislative Framework," 20 de marzo de 2026.

2. Antecedentes

El marco propuesto el 20 de marzo es el resultado de un proceso que comenzó con la orden ejecutiva firmada por el presidente Trump el 11 de diciembre de 2025, titulada Ensuring a National Policy Framework for Artificial Intelligence. Esa orden instruyó al Departamento de Justicia a crear un grupo de trabajo de litigio en IA para impugnar leyes estatales, ordenó al Departamento de Comercio identificar las leyes estatales consideradas onerosas para marzo de 2026, y amenazó con retener fondos federales de banda ancha a los estados cuyas leyes de IA fueran consideradas contrarias a la política federal.

Executive Order: Ensuring a National Policy Framework for Artificial Intelligence, 11 de diciembre de 2025.

La orden también instruyó a David Sacks, designado como responsable de IA de la Casa Blanca, y a Michael Kratsios, director de la Oficina de Política Científica y Tecnológica, a preparar las recomendaciones legislativas que se publicaron el 20 de marzo.

Intentos previos de desplazamiento de leyes estatales

Antes del marco de marzo de 2026, la administración y sus aliados en el Congreso habían intentado varias veces desplazar la regulación estatal de IA mediante legislación federal, sin éxito. A mediados de 2025, se incluyó una moratoria de diez años a nuevas leyes estatales de IA en un proyecto de reconciliación presupuestaria, pero el Senado votó 99 a 1 para eliminar la disposición. Un intento similar de incluir lenguaje de desplazamiento de leyes estatales en la Ley de Autorización de Defensa Nacional para el año fiscal 2026 también fracasó.

Sullivan & Cromwell LLP, "Trump Administration Releases National Policy Framework on Artificial Intelligence," marzo de 2026.

El contexto estatal

Para marzo de 2026, cuatro estados habían promulgado leyes con requisitos para el sector privado en materia de IA: Colorado, California, Utah y Texas. La ley de IA de Colorado, vigente desde febrero de 2026, exige que los desarrolladores y quienes despliegan sistemas de IA de alto riesgo ejerzan un cuidado razonable para proteger a los consumidores de la discriminación algorítmica. Esa ley fue citada específicamente en la orden ejecutiva de diciembre de 2025 como ejemplo de regulación estatal problemática.

3. Los seis objetivos del marco

El documento de la Casa Blanca organiza sus recomendaciones legislativas en seis objetivos. A continuación se describe cada uno con la información disponible en las fuentes primarias y en la cobertura periodística de los primeros días.

Objetivo 1: Proteger a los menores y empoderar a los padres

El marco propone que el Congreso otorgue a los padres herramientas para gestionar el entorno digital de sus hijos, incluyendo controles de cuentas para proteger su privacidad y administrar el uso de dispositivos. Las plataformas de IA susceptibles de ser utilizadas por menores deberían implementar funciones para reducir la explotación sexual y el estímulo a conductas autolesivas. Al mismo tiempo, el marco advierte contra establecer estándares de contenido ambiguos que generen litigiosidad excesiva y limita la responsabilidad abierta de los desarrolladores.

The White House (2026), objetivo 1. NBC News, 20 de marzo de 2026.

Objetivo 2: Proteger y fortalecer a las comunidades

El marco propone que los consumidores de energía residencial no asuman los costos de los centros de datos de IA. Llama al Congreso a codificar el Ratepayer Protection Pledge (Compromiso de Protección al Contribuyente Energético), un acuerdo voluntario firmado el 4 de marzo de 2026 por siete empresas tecnológicas líderes, en el que se comprometieron a cubrir los costos completos de generación eléctrica e infraestructura de sus centros de datos. También propone agilizar los permisos para que los centros de datos puedan generar energía in situ y fortalecer la capacidad federal para combatir estafas habilitadas por IA.

The White House (2026), objetivo 2. Reuters, 20 de marzo de 2026. Sullivan & Cromwell (2026).

Objetivo 3: Respetar la propiedad intelectual y apoyar a los creadores

Este es uno de los puntos más controvertidos. El marco declara que la administración cree que el entrenamiento de modelos de IA con material protegido por derechos de autor no viola las leyes de propiedad intelectual y recomienda no intervenir legislativamente en los litigios en curso, dejando que el poder judicial resuelva qué es y qué no es uso justo. También propone abordar el uso de réplicas de IA que simulan la apariencia o la voz de una persona.

The White House (2026), objetivo 3. Axios, 20 de marzo de 2026.

Objetivo 4: Prevenir la censura y proteger la libertad de expresión

El marco propone que el Congreso impida que el gobierno federal coaccione a proveedores de tecnología, incluidos proveedores de IA, para prohibir, imponer o alterar contenido basado en preferencias partidarias o políticas. Propone garantías para que los sistemas de IA puedan perseguir la verdad y la precisión sin limitaciones.

The White House (2026), objetivo 4.

Objetivo 5: Habilitar la innovación y asegurar el dominio estadounidense en IA

El marco propone establecer sandboxes regulatorios (entornos controlados de prueba donde los desarrolladores pueden experimentar con IA bajo reglas flexibles) para permitir la experimentación bajo reglas flexibles, ampliar el acceso a conjuntos de datos federales preparados para IA, y apoyarse en reguladores sectoriales y estándares liderados por la industria en lugar de crear un nuevo regulador integral de IA. También propone limitar la responsabilidad de los desarrolladores por conductas ilícitas de terceros que utilicen sus modelos.

The White House (2026), objetivo 5. Sullivan & Cromwell (2026). CNN, 20 de marzo de 2026.

Objetivo 6: Fuerza laboral y educación

El marco propone integrar la IA en los programas de educación y formación laboral, ampliar la investigación sobre el impacto de la IA en el mercado de trabajo y fortalecer la capacidad de las universidades land-grant (instituciones públicas creadas por ley federal para democratizar el acceso a la educación superior en cada estado) para el desarrollo de habilidades, asistencia técnica y programas para jóvenes.

The White House (2026), objetivo 6. Sullivan & Cromwell (2026).

4. El eje central: una sola norma federal en lugar de cincuenta leyes estatales

El tema transversal del marco, y el que genera mayor debate, es la propuesta de desplazamiento de las leyes estatales de IA por una norma federal única. El documento sostiene que el Congreso debería desplazar las leyes estatales de IA que impongan cargas indebidas para garantizar un estándar nacional mínimamente gravoso, en lugar de cincuenta estándares discordantes. Se preservarían las competencias estatales básicas (aplicación general de la ley, zonificación, uso estatal de IA), pero se impediría que los estados regulen el desarrollo de IA o impongan restricciones que contradigan la estrategia nacional.

The White House (2026), sección sobre desplazamiento de leyes estatales. CNBC, 20 de marzo de 2026.

El debate no es sobre si debe haber un estándar nacional. Es sobre qué se pierde cuando se silencian las regulaciones estatales que responden a daños concretos documentados por sus ciudadanos.

5. Reacciones y críticas

Desde la industria tecnológica

Los representantes de la industria recibieron el marco con entusiasmo. El marco fue descrito como un paso hacia la liberación de la innovación estadounidense. La posición histórica de la industria ha sido que un mosaico de leyes estatales dificulta la innovación y otorga ventajas a competidores globales como China.

Desde la sociedad civil y la academia

Las críticas se concentran en tres puntos. Primero, la limitación de responsabilidad de los desarrolladores, que algunos analistas comparan con la Sección 230 (norma estadounidense que protege a las plataformas de internet de la responsabilidad por el contenido publicado por sus usuarios). Segundo, la debilidad de las protecciones para menores, que según críticos no incluyen mecanismos de rendición de cuentas para las empresas de IA cuyos productos causen daño a menores. Tercero, el desplazamiento de las leyes estatales, que ha sido descrito como una ironía por parte de analistas que señalan que los estados han funcionado como laboratorios de democracia, respondiendo a daños reales reportados por sus ciudadanos.

Rolling Stone, 21 de marzo de 2026. CNN, NBC News, 20 de marzo de 2026.

Sobre la viabilidad legislativa

Múltiples análisis coinciden en que la aprobación legislativa del marco es incierta. Axios lo describe como una lista de prioridades más que un plan legislativo concreto. Un análisis de Roll Call publicado semanas antes del lanzamiento indicaba que, si bien hay acuerdo amplio sobre la conveniencia de un estándar nacional, las perspectivas de aprobación en 2026 son escépticas, dados los márgenes ajustados del partido republicano y un calendario electoral cargado. El bufete Sullivan & Cromwell concluye que, aunque la adopción legislativa es incierta, la propuesta probablemente dará forma tanto a la actividad legislativa de corto plazo como a la arquitectura regulatoria de largo plazo.

Axios, 20 de marzo de 2026. Sullivan & Cromwell LLP, marzo de 2026. Roll Call, marzo de 2026.

6. Marco contextual: cómo se regula la IA en Europa y en Estados Unidos

El desarrollo normativo europeo: el AI Act

La Unión Europea adoptó en junio de 2024 el Reglamento (UE) 2024/1689, conocido como AI Act, la primera legislación integral del mundo que regula los sistemas de inteligencia artificial. El Reglamento entró en vigor el 1 de agosto de 2024 y su aplicación es escalonada: las prácticas prohibidas y las obligaciones de alfabetización en IA son exigibles desde febrero de 2025; las reglas para modelos de propósito general desde agosto de 2025; la aplicación plena será en agosto de 2026; y los sistemas de alto riesgo integrados en productos regulados tienen plazo hasta agosto de 2027.

Reglamento (UE) 2024/1689 (AI Act), Diario Oficial de la UE, 13 de junio de 2024.

El AI Act adopta un enfoque basado en riesgo con cuatro categorías: riesgo inaceptable (sistemas prohibidos, como la puntuación social o la manipulación subliminal), riesgo alto (sistemas que afectan derechos fundamentales, con obligaciones de gestión de riesgos, documentación técnica y supervisión humana), riesgo limitado (obligaciones de transparencia para chatbots y contenido sintético) y riesgo mínimo (sin regulación específica). Además, crea la Oficina Europea de IA como organismo de supervisión y establece multas de hasta 35 millones de euros o el 7% de la facturación global anual.

Lo que distingue al enfoque europeo es su orientación: la protección de derechos fundamentales y la seguridad como prioridad, con la innovación como beneficio derivado de un marco de confianza. El AI Act no prohíbe la IA. Regula sus usos más riesgosos y exige transparencia en los demás.

Estados Unidos: la regulación federal hasta marzo de 2026

A diferencia de la Unión Europea, Estados Unidos no cuenta con una ley federal integral de inteligencia artificial. La regulación se ha construido de manera fragmentaria, a través de órdenes ejecutivas, marcos voluntarios y legislación estatal.

En octubre de 2023, el presidente Biden firmó una orden ejecutiva sobre IA segura, protegida y confiable, que estableció estándares de seguridad para modelos de IA, requisitos de transparencia y directrices para el uso gubernamental. Esa orden fue revocada por el presidente Trump en enero de 2025, al inicio de su mandato, como parte de su posición a favor de una regulación mínima que no obstaculice la innovación.

En paralelo, el Instituto Nacional de Estándares y Tecnología (NIST) publicó en enero de 2023 el AI Risk Management Framework, un marco voluntario de gestión de riesgos que organiza las buenas prácticas en cuatro funciones (gobernar, mapear, medir, gestionar). Aunque no tiene fuerza de ley, se ha convertido en una referencia de facto para organizaciones que buscan operar con criterio en materia de IA. En julio de 2024, el NIST publicó un perfil específico para IA generativa.

NIST AI 100-1, AI Risk Management Framework 1.0, enero de 2023. NIST AI 600-1, Generative AI Profile, julio de 2024.

Ante la ausencia de legislación federal, los estados comenzaron a actuar por cuenta propia. Para marzo de 2026, Colorado, California, Utah y Texas habían promulgado leyes con requisitos específicos para sistemas de IA. Numerosas ciudades y otros estados tenían proyectos en trámite. Este escenario de regulación estatal dispersa es lo que la administración Trump busca reemplazar con su propuesta de norma federal única.

7. Lo que el marco no aborda

El marco no incluye mecanismos específicos de rendición de cuentas para los desarrolladores de IA cuando sus sistemas causan daño. No aborda la protección de datos personales más allá de las menciones a la privacidad de menores. No crea un regulador federal de IA. No establece categorías de riesgo como las del AI Act europeo. No resuelve la cuestión de propiedad intelectual, delegándola al poder judicial. Y no establece estándares técnicos de transparencia, explicabilidad o auditoría de algoritmos.

La National Law Review lo resume con precisión: el marco contrasta con el enfoque de muchos otros países, que priorizan la protección de derechos y libertades individuales. El AI Act europeo, por ejemplo, se centra en eso. El marco estadounidense prioriza la innovación y la competitividad.

National Law Review, marzo de 2026.

8. Contexto comparado

Los seis objetivos del marco Trump y el AI Act europeo: dos enfoques

Dimensión Comparación
Enfoque regulatorio EE.UU.: regulación mínima, sectorial, liderada por la industria. UE: regulación integral basada en riesgo con obligaciones específicas.
Norma única vs. leyes estatales EE.UU.: desplazar leyes estatales para crear estándar único federal. UE: armonización entre Estados Miembros con aplicación directa del Reglamento.
Responsabilidad EE.UU.: limitar responsabilidad de desarrolladores. UE: obligaciones de gestión de riesgos, documentación y supervisión humana para sistemas de alto riesgo.
Propiedad intelectual EE.UU.: dejar que los tribunales resuelvan. UE: obligaciones de transparencia sobre datos de entrenamiento para GPAI.
Protección de datos EE.UU.: sin marco federal integral. UE: GDPR como piso de protección aplicable a IA.
Nuevo regulador EE.UU.: no. UE: Oficina Europea de IA con funciones de supervisión.

Elaboración propia a partir de The White House (2026); Reglamento (UE) 2024/1689 (AI Act); National Law Review (2026).

9. Cómo sigue la discusión

La Casa Blanca ha declarado su intención de trabajar con el Congreso en los próximos meses para convertir el marco en un proyecto de ley. Kratsios declaró que el objetivo es codificarlo este año y que cree que puede generar apoyo bipartidario. Dos días antes del lanzamiento del marco, la senadora Marsha Blackburn había publicado un borrador de legislación denominado TRUMP AMERICA AI Act, destinado a codificar elementos clave de la orden ejecutiva de diciembre de 2025. El borrador de Blackburn, sin embargo, diverge de la posición de la administración en un punto sensible: establece que el uso no autorizado de obras protegidas por derechos de autor para entrenamiento de IA no constituye uso justo, contradiciendo la preferencia de la Casa Blanca de dejar la cuestión en manos de los tribunales.

Fox News, entrevista con Michael Kratsios, 20 de marzo de 2026. CNBC, 20 de marzo de 2026.

La aprobación legislativa dependerá de cómo se resuelvan las tensiones internas del partido republicano (entre promotores de la innovación y defensores de los derechos de autor, entre centralistas y federalistas), y de si los demócratas encuentran puntos de convergencia, particularmente en protección de menores y en el aspecto energético.

10. Consideraciones finales

El marco de la administración Trump es el primer intento comprehensivo del gobierno federal estadounidense de proponer una arquitectura legislativa nacional para la IA. Como documento, es más un mapa de intenciones que un proyecto de ley. Su importancia no radica en su nivel de detalle, que es bajo, sino en las decisiones de política pública que revela: priorizar la innovación sobre la protección de derechos, la competitividad sobre la regulación, y el estándar federal único sobre la experimentación estatal.

Para América Latina, donde la regulación de IA es incipiente, el marco estadounidense funciona como un dato más en la ecuación global. No como modelo a copiar ni como contra-ejemplo a rechazar, sino como una señal de cómo la mayor economía del mundo está decidiendo qué regular, qué dejar al mercado y qué delegar a los tribunales.

El debate sobre cómo regular la IA no es técnico. Es político. Y la forma en que cada país lo resuelva va a definir qué derechos protege, qué riesgos asume y quién se beneficia de la tecnología más transformadora de este siglo.

Referencias

Axios (2026). White House releases Trump's national AI plan and framework. 20 de marzo de 2026.

CNBC (2026). Trump administration unveils national AI policy framework to limit state power. 20 de marzo de 2026.

CNN (2026). The White House just laid out how it wants to regulate AI. 20 de marzo de 2026.

National Law Review (2026). Trump Administration Unveils New AI Policy Framework Calling on Congress to Act. Ogletree Deakins.

NBC News (2026). White House releases AI legislation framework. 20 de marzo de 2026.

Reuters (2026). Trump Releases AI Policy for Congress to Pre-Empt State Rules. 20 de marzo de 2026.

Rolling Stone (2026). Is Trump's New AI Framework a Bid to Consolidate Power? 21 de marzo de 2026.

Sullivan & Cromwell LLP (2026). Trump Administration Releases National Policy Framework on Artificial Intelligence. Marzo de 2026.

The White House (2025). Executive Order: Ensuring a National Policy Framework for Artificial Intelligence. 11 de diciembre de 2025.

The White House (2026). A National Policy Framework for Artificial Intelligence: Legislative Recommendations. 20 de marzo de 2026.

Unión Europea (2024). Reglamento (UE) 2024/1689 — Ley de Inteligencia Artificial (AI Act). Diario Oficial de la UE, 13 de junio de 2024.

— Nick Perot
Este documento puede ser compartido libremente con fines educativos citando la fuente · Marzo 2026