Leyes IA

Leyes de la IA: Brecha legal actual y guía para la adopción segura



Dirección copiada

La regulación de la Inteligencia Artificial evoluciona de la mano del avance tecnológico y plantea un equilibrio entre innovación, derechos fundamentales y competitividad. Marco legal actual, iniciativas globales y perspectivas futuras.

Publicado el 29 de may de 2025

Silvina Darago

Periodista



Ilustración de una balanza digital entre una IA y un humano, representando el debate sobre leyes IA
El desarrollo de marcos legales para la inteligencia artificial busca equilibrar el avance tecnológico con la protección de los derechos humanos y la transparencia algorítmica. Las leyes IA son cada vez más relevantes en entornos B2B donde la automatización impacta en decisiones críticas. Fuente: Shutterstock

En los últimos años, la proliferación de tecnologías basadas en IA impulsó un debate global sobre la necesidad de Leyes IA que garanticen un equilibrio entre innovación y protección de derechos fundamentales.

El estudio, desarrollo e implementación de nuevas regulaciones de inteligencia artificial incrementó a grandes pasos en los últimos años. EE.UU es un ejemplo de ello: según el informe AI Index 2024 de Stanford HAI el número de regulaciones relacionadas con la IA aumentó significativamente durante el último año y en los últimos cinco años. En 2023, hubo 25 regulaciones relacionadas con la IA, frente a solo una en 2016. Solo el año pasado, el número total de regulaciones relacionadas con la IA creció un 56,3%.

Más allá de este contexto, las leyes AI enfrentan retos significativos debido a la diversidad de enfoques en distintas jurisdicciones y la rápida evolución de la tecnología.

Por eso las distintas organizaciones internacionales comenzaron a trabajar las bases que permitan ser una guía para los gobiernos y las empresas. Por ejemplo, la actualización de los Principios de IA de la OCDE 2024 aborda desafíos de privacidad, propiedad intelectual y seguridad y la Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial promueve la protección de derechos humanos desde un enfoque multicultural.

Por otro lado, los gobiernos se preparan y toman iniciativas que promuevan regulaciones equitativas y justas. En el caso de Europa, las expectativas generadas por las leyes AI se reflejan en el AI Act de la UE.

Marco legal actual de la inteligencia artificial

La Organización para la Cooperación y el Desarrollo Económicos (OCDE) estableció uno de los primeros marcos internacionales para la gobernanza de la IA.

Adoptados en mayo de 2019, los Principios de IA de la OCDE promueven una inteligencia artificial innovadora y confiable que respete los derechos humanos y los valores democráticos. Esta fue revisada el 3 de mayo de 2024 para abordar desafíos de la IA generativa, reforzando principios de privacidad, seguridad y transparencia para 47 países adherentes.

Estos principios han sido respaldados no solo por los países miembros de la OCDE, sino también por Argentina, Brasil, Colombia, Costa Rica, Perú y Rumanía, demostrando su amplio alcance internacional.

Los cinco principios fundamentales de la OCDE incluyen:

  1. La IA debe beneficiar a las personas y al planeta, impulsando el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
  2. Los sistemas de IA deben diseñarse respetando el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, incluyendo salvaguardas apropiadas como la intervención humana cuando sea necesario.
  3. Debe existir transparencia y divulgación responsable en torno a los sistemas de IA para asegurar que las personas entiendan los resultados basados en IA y puedan cuestionarlos.
  4. Los sistemas de IA deben funcionar de manera robusta, segura y protegida durante todo su ciclo de vida, con evaluación y gestión continua de los riesgos potenciales.
  5. Las organizaciones e individuos que desarrollan, implementan u operan sistemas de IA deben ser responsables de su funcionamiento adecuado.

Paralelamente, la Recomendación de la UNESCO sobre la Ética de la IA adoptada en noviembre de 2021 -y actualizada en 2024- destaca la protección de los derechos humanos, la equidad y la inclusión y ofrece una metodología de evaluación de impacto ético.

La Recomendación adopta un enfoque amplio sobre la definición de IA que permite su aplicabilidad incluso frente a futuras evoluciones tecnológicas. El documento reconoce que cada fase del ciclo de vida de un sistema de IA plantea cuestiones éticas específicas y examina estas cuestiones en cuatro ámbitos principales: educación, ciencia, cultura, y comunicación e información.

Los cuatro valores clave promovidos por la UNESCO son:

  • Respeto a los derechos humanos y la dignidad de las personas
  • Fomento de una vida pacífica caracterizada por la justicia social
  • Garantía de diversidad e inclusión
  • Promoción del bienestar ambiental

La Recomendación establece diez principios que deben incorporarse a lo largo de todo el ciclo de vida de los sistemas de IA, incluyendo seguridad, justicia y no discriminación, sostenibilidad, protección de datos personales, control humano, transparencia y explicabilidad, y responsabilidad.

El Grupo de Alto Nivel en IA (AI HLEG) de la UE, cuyos lineamientos de 2019 inspiraron el AI Act, promovió una aproximación centrada en el ser humano y estableció la base ética para el desarrollo de sistemas confiables, integrando transparencia y supervisión humana.

Principales regulaciones y directrices sobre IA a nivel global

País / RegiónNombre de la Regulación o IniciativaObjetivos principalesEstado actual (2025)Aspectos distintivos
Unión EuropeaAI Act + Código de Práctica GPAI (en desarrollo)Clasificar riesgos, establecer requisitos por nivel de riesgo, regular GPAIAI Act aprobado en 2024; GPAI en preparaciónPrimer marco legal vinculante del mundo; enfoque por niveles de riesgo; revisiones previstas
Estados UnidosBlueprint for an AI Bill of Rights + NAIIA (Ley Nacional de IA)Protección de derechos civiles, liderazgo global, gobernanza interna de IABlueprint activo como guía; NAIIA vigente desde 2021Enfoque distribuido; fuerte impulso federal; “Chief AI Officers” en agencias
Reino UnidoProyecto de Ley de Regulación de IASupervisión centralizada, principios regulatorios, participación ciudadanaEn trámite parlamentario (1° lectura marzo 2025)Propone crear una Autoridad de IA; colaboración entre reguladores; enfoque participativo
CanadáAIDA – Artificial Intelligence and Data Act (Proyecto de Ley C-27)Gobernanza de IA, gestión de riesgos, clasificación de sistemasEn discusión legislativaEnfocado en IA generativa y alto riesgo; sanciones severas; alineado con estándares internacionales
ChinaRegulaciones sobre: algoritmos (2021), síntesis profunda (2022), IA generativa (borrador 2023)Control de contenido, etiquetado, precisión y veracidadActivas o en revisiónEtiquetado obligatorio, control de sesgo, regulación explícita para IA generativa y algoritmos
OCDEPrincipios de IA (actualizados 2024)Promover IA confiable, transparencia, derechos humanosVigentes en 47 paísesNo vinculantes, pero referencia global; interoperabilidad de políticas
UNESCORecomendación sobre Ética de la IA (actualizada 2024)Garantizar equidad, inclusión y derechos universalesEn implementación nacionalEnfoque multicultural, metodologías de evaluación ética y herramientas de gobernanza
Consejo de EuropaConvenio Marco sobre Inteligencia Artificial (2024)Coherencia regulatoria y protección de derechos humanosAbierto a firma desde sept. 2024Primer tratado internacional legalmente vinculante sobre IA y derechos humanos
ISO / IECISO/IEC 42001 + estándares SC 42Gestión de riesgos y calidad, armonización globalISO/IEC 42001 vigente desde 2024Primer estándar internacional para sistemas de gestión de IA; aplicable a empresas

Proyectos de ley y propuestas en discusión en diferentes países

Durante 2024 y lo que va del 2025 se observa un impulso regulatorio sin precedentes caracterizado por enfoques que buscan equilibrar la innovación tecnológica con la protección de derechos fundamentales.

En este marco, muchos países renuevan sus propuestas pasadas y otros incluyen nuevas focos que permitan la creación de leyes AI equitativas y responsables.

En nuestro país se destaca el proyecto de ley 3003-D-2024, presentado en junio de 2024, que propone establecer un régimen legal para el uso responsable de la IA en el país.

Esta iniciativa busca crear un marco jurídico que regule el desarrollo y la implementación de sistemas de IA a través de prácticas éticas y transparentes que incluyen registros de riesgos y certificaciones de buenas prácticas.

El proyecto se encuentra actualmente en discusión en la Cámara de Diputados y ha sido girado a las comisiones de Ciencia, Tecnología e Innovación Productiva; Legislación General; y Derechos Humanos y Garantías para su análisis.

La nueva ley de Inteligencia Artificial: elementos clave de la nueva regulación y retos

Por su parte, EE.UU, referente en la temática, introdujo en septiembre de 2023 el Algorithmic Accountability Act of 2023. Esta legislación propone que las empresas realicen evaluaciones de impacto sobre los sistemas automatizados de decisión que utilizan, enfocándose en identificar y mitigar posibles sesgos y riesgos asociados.

El proyecto busca aumentar la transparencia y la rendición de cuentas en el uso de tecnologías algorítmicas, especialmente en sectores críticos como la vivienda, el empleo y el crédito.

Sumada a esta iniciativa, en septiembre de 2024, la Cámara de Representantes aprobó un paquete legislativo bipartidista que incluye el proyecto HR 9497, también conocido como Ley de Avance y Confiabilidad de la IA.

Esta iniciativa propone la creación de un Centro de Excelencia en el Instituto Nacional de Estándares y Tecnología (NIST), enfocado en establecer directrices sobre transparencia, resiliencia y seguridad en sistemas de inteligencia artificial.

Aunque aún en trámite en el Senado, el proyecto marca un paso clave hacia la institucionalización de estándares técnicos federales. A la par, otros proyectos como el HR 9215 buscan fortalecer la formación laboral en IA mediante fondos a programas de capacitación y certificación para preparar una fuerza laboral alineada con los nuevos requerimientos tecnológicos.

Tabla comparativa entre el AI Act de la Unión Europea y la EO 14110 de EE. UU., que muestra diferencias clave en regulaciones de inteligencia artificial, enfocadas en riesgos, privacidad y gobernanza.
El AI Act europeo establece el primer marco legal vinculante sobre IA a nivel global, mientras que la EO 14110 define directrices federales en EE. UU. para una IA segura. Fuente: Parlamento Europeo, AI Index 2024.

Sin embargo, una cláusula incluida en el proyecto de presupuesto federal de 2025 generó fuerte controversia. Impulsada por miembros del Comité de Energía y Comercio, la disposición plantea invalidar cualquier regulación estatal sobre inteligencia artificial hasta 2035, argumentando la necesidad de evitar fragmentación normativa.

Por otra parte, en busca de acuerdos que potencien el marco regulatorio de la inteligencia artificial, el gobierno británico y diversas compañías tecnológicas firmaron los Frontier AI Safety Commitments, una declaración conjunta que establece principios para el desarrollo seguro de modelos fundacionales de IA, en el marco de la AI Seoul Summit.

Al mismo tiempo, se encuentra el Proyecto de Ley de Regulación de la IA que fue reintroducido en la Cámara de los Lores el 4 de marzo de 2025 por Lord Holmes de Richmond.

La iniciativa propone la creación de una Autoridad de Inteligencia Artificial con facultades para coordinar a los distintos reguladores sectoriales y cubrir vacíos normativos existentes.

Asimismo, contempla el establecimiento de sandboxes regulatorios -espacios de prueba supervisados- para fomentar la innovación responsable, especialmente en sectores críticos como el financiero y el sanitario.

Entre sus disposiciones más destacadas se incluye la obligación para las empresas que desarrollen sistemas de alto impacto de designar un “Oficial de IA”, encargado de velar por el cumplimiento ético y técnico de los modelos desplegados.

Desafíos éticos y legales en la implementación de la IA

Los sistemas de IA presentan riesgos de sesgos y salidas erróneas, especialmente con IA generativa que opera con mínima supervisión humana, lo que puede derivar en violaciones de privacidad y resultados peligrosos.

En el sector financiero, la opacidad de algoritmos aumenta la demanda de modelos “caja de cristal” y herramientas de IA explicable para garantizar transparencia en decisiones de crédito y transacciones .

La asignación de responsabilidad en caso de daños producidos por IA es compleja. En materia de protección de datos, las Pautas de Privacidad de la OCDE mapean principios de privacidad con riesgos de IA, impulsando estándares globales sobre consentimiento y minimización de datos .

En EE. UU., por ejemplo, la memoranda OMB M-24-10 exige directrices para el uso responsable de IA en agencias federales respetando marcos de privacidad existentes.

Comparación de regulaciones internacionales de IA

Región / OrganismoNorma PrincipalTipo de MarcoÁmbitos ClaveObligaciones para EmpresasÚltima Actualización
Unión EuropeaAI Act (Reglamento 2024/1689)VinculanteClasificación de riesgo, prohibiciones, transparencia, supervisión humanaEvaluaciones de riesgo, registro de sistemas, trazabilidad, auditoríasMayo 2024
Estados Unidos (Federal)Orden Ejecutiva 14110 (EO 14110)No vinculante para el sector privadoGobernanza federal, privacidad, innovación responsableNombrar Chief AI Officer en agencias; guías de uso ético (público)Octubre 2023
Reino UnidoProyecto de Ley de Regulación de IA (2025)En discusión parlamentariaAutoridad de IA, sandboxes regulatorios, gobernanza éticaNombrar Oficiales de IA, pruebas en entornos controladosMarzo 2025
OCDEPrincipios de IA de la OCDENo vinculanteInteroperabilidad, transparencia, equidad, seguridadRecomendaciones sobre gobernanza y evaluación de impacto éticoMayo 2024
UNESCORecomendación sobre Ética de la IANo vinculante, guía globalDerechos humanos, equidad, evaluación de impactoInstrumentos éticos, metodologías nacionales de implementaciónActualizada en 2024
ISO / IECISO/IEC 42001:2024Voluntario, certificableGestión de sistemas de IA, calidad, trazabilidadImplementación de sistemas de gestión y cumplimiento técnicoEnero 2024

La Unión Europea estableció un marco más avanzado y vinculante hasta la fecha con el AI Act, aprobado en 2024. Esta normativa regula de forma exhaustiva los sistemas de inteligencia artificial clasificados como de alto riesgo, imponiendo obligaciones estrictas en materia de gestión de riesgos, transparencia algorítmica y supervisión humana obligatoria.

En contraste, Estados Unidos ha optado por una aproximación más flexible: la Orden Ejecutiva 14110, emitida en octubre de 2023, define prioridades para el desarrollo seguro de la IA en el ámbito federal, incluyendo la designación de un Chief AI Officer en cada agencia. Sin embargo, este marco aún no es jurídicamente vinculante para el sector privado, lo que evidencia una diferencia estratégica en la aproximación regulatoria transatlántica.

Organismos multilaterales también han aportado modelos de referencia. La OCDE promueve desde 2019 sus Principios de IA, recientemente actualizados en 2024, que si bien no son legalmente obligatorios, se han convertido en estándares ampliamente citados para fomentar la interoperabilidad global.

Por su parte, la Recomendación de la UNESCO incorpora una perspectiva multicultural centrada en la protección de los derechos humanos, aportando herramientas para la evaluación ética y metodologías para su implementación nacional.

A nivel técnico, el comité ISO/IEC JTC 1/SC 42 lidera la estandarización internacional con más de 48 normas en desarrollo. Entre ellas destaca la ISO/IEC 42001:2024, primer estándar global que establece los requisitos para la implementación de sistemas de gestión de IA, marcando un hito en la regulación técnica certificable del ecosistema algorítmico.

La urgencia de prepararse para el Reglamento de Inteligencia Artificial

Impacto de la regulación de la IA en el sector empresarial

La implementación de regulaciones sobre inteligencia artificial está transformando profundamente la manera en que las empresas diseñan, integran y supervisan sistemas algorítmicos.

Las normativas como el AI Act en Europa o los estándares ISO obligan a las organizaciones a adoptar prácticas más rigurosas en torno a la gestión de riesgos, la trazabilidad de modelos y la supervisión humana. Estas exigencias afectan a proveedores tecnológicos y también a compañías usuarias de IA en sectores como finanzas, salud, manufactura y retail.

Grandes tecnológicas como Microsoft y Google destinan millones a adaptar sus algoritmos, lo cual refuerza su ventaja competitiva.

El cumplimiento normativo requiere inversiones en talento especializado, auditorías técnicas y rediseño de procesos de desarrollo, lo que representa tanto un reto operativo como una oportunidad estratégica para fortalecer la confianza del mercado.

En paralelo, muchas organizaciones están tomando medidas proactivas para alinearse con estos marcos regulatorios antes de que se vuelvan obligatorios. La figura del Chief AI Officer comienza a institucionalizarse en grandes corporaciones, y proliferan comités internos de gobernanza algorítmica.

A su vez, firmas consultoras, legales y tecnológicas están ampliando sus servicios en ética y cumplimiento en IA. Este nuevo entorno normativo no solo redefine el modelo de adopción tecnológica, sino que también incentiva la creación de una ventaja competitiva basada en la transparencia, la explicabilidad y la responsabilidad corporativa.

En este contexto, muchas empresas han creado puestos como Chief AI Officer para supervisar la gobernanza y reducir riesgos. Esto se ve reflejado en los hallazgos del informe de McKinsey que destaca el papel clave del liderazgo ejecutivo en el valor de la IA. Según este, el 88% de los consejeros de compañías públicas consideran prioritario entender y gestionar los riesgos de IA.

La regulación impulsa la adopción de prácticas de “IA responsable”, haciendo más robustos los procesos de control de calidad y auditoría interna. Más del 65 % de las organizaciones reportan utilizar IA en múltiples funciones tras reforzar sus políticas de gobernanza interna.

En el sector financiero, la transición hacia modelos “caja de cristal” y la implementación de IA explicable ha mejorado la confianza de inversores y clientes.

Perspectivas futuras para la legislación de IA

Para que las regulaciones en la IA sean eficientes y prosperen en el futuro (y se consoliden), será fundamental 3 puntos claves:

  • Armonización internacional: Acuerdos técnicos a través de foros como el GPAI (Asociación Global sobre IA).
  • Inversión en capacidad estatal: Formación de equipos técnicos en organismos reguladores para auditorías efectivas.
  • Mecanismos de actualización dinámica: Cláusulas de revisión periódica en leyes para incorporar avances tecnológicos.

La regulación de la IA está evolucionando desde enfoques reactivos hacia modelos de co-regulación público-privada. El éxito dependerá de mantener equilibrios delicados: innovación versus control, uniformidad versus adaptación local, y protección versus crecimiento económico. Los próximos años definirán si estas iniciativas logran fomentar una IA verdaderamente centrada en el ser humano.

El mundo va por este camino. En el plano internacional, el Convenio Marco sobre Inteligencia Artificial del Consejo de Europa crea un tratado legal vinculante que promueve la coherencia con derechos humanos, democracia y Estado de derecho.

Simultáneamente, se fortalecen estándares técnicos: el comité ISO/IEC JTC 1/SC 42 coordina la creación de más de 48 normas para aplicaciones, transparencia y sostenibilidad y la ISO/IEC 42001 define sistemas de gestión de IA, marcando el inicio de marcos de certificación globales.

Además, acuerdos como el MOU de seguridad de IA entre Reino Unido y EE. UU. o la Declaración de Seúl del AI Seoul Summit muestran un aumento de la colaboración internacional para crear marcos comunes de seguridad y supervisión científica, apuntando a prevenir riesgos de IA avanzada.

Preguntas frecuentes sobre las implicaciones éticas de la inteligencia artificial

¿Existen leyes específicas que regulen la inteligencia artificial?

Sí. En la Unión Europea rige el AI Act, que clasifica y regula sistemas de alto riesgo, y en EE.UU. la Orden Ejecutiva 14110 marca directrices federales, mientras que países como Argentina y Reino Unido tienen proyectos de ley y compromisos específicos en trámite.

¿Qué organismos gubernamentales supervisan el desarrollo y uso de la IA?

La Comisión Europea y la Agencia Europea de Supervisión de Datos en la UE; la FTC, la NIST y la Oficina de Gestión y Presupuesto (OMB) en EE. UU.; además la OCDE, la UNESCO y autoridades nacionales de protección de datos colaboran globalmente.

¿Cómo se protege la privacidad de los datos en sistemas de IA según la legislación vigente?

Mediante normas como el GDPR en Europa, las “OCDE Privacy Guidelines” y políticas federales (OMB M-24-10), que exigen evaluaciones de impacto de privacidad, consentimiento informado y minimización de datos.

¿Qué sanciones existen para el uso indebido de la inteligencia artificial?

Pueden ir desde multas administrativas (hasta el 6 % de la facturación global bajo el AI Act) y restricciones de comercialización en la UE, hasta sanciones de la FTC en EE. UU. y posibles responsabilidades civiles o penales según la gravedad del incumplimiento.

¿Cómo pueden las empresas prepararse para futuras regulaciones en IA?

Implementando sistemas de gestión de IA certificados (ISO 42001), realizando evaluaciones de impacto ético y de riesgos, nombrando un “Chief AI Officer” y adoptando políticas internas de transparencia, trazabilidad y gobernanza responsable.

Artículos relacionados

Artículo 1 de 7