¿Cómo está abordando Chile la regulación de la IA?

 

 

regulacion de la IA en ChileIA360.cl

 

¿Te has preguntado si la regulación de la IA va a cambiar la forma en que desarrollas, compras o usas herramientas de Inteligencia Artificial?

En este artículo vamos a ordenar el panorama: qué se está haciendo en Chile, qué pasa en la Unión Europea y qué dicen los marcos éticos internacionales como UNESCO.

 

Regulación de la IA: marco actual

Cuando hablamos de regulación de la IA no hablamos solo de una “ley IA” única, sino de un conjunto de:

  • Leyes (vinculantes, con obligaciones y sanciones)
  • Políticas públicas y estrategias nacionales
  • Recomendaciones éticas de organismos internacionales
  • Buenas prácticas que la industria adopta voluntariamente

 

En términos simples, regular la Inteligencia Artificial busca responder preguntas como:

  • ¿Quién es responsable si un sistema de IA causa daño?
  • ¿Cómo se protege la privacidad y los datos personales?
  • ¿Cómo evitamos discriminación y sesgos algorítmicos?
  • ¿Qué usos de la IA deberían estar prohibidos?

 

Lo clave es que casi todos los marcos actuales comparten una idea central:

la IA debe estar al servicio de las personas, respetando los derechos humanos y la dignidad, y no al revés.

 

¿Cómo está abordando Chile la regulación de la IA?


Política Nacional de Inteligencia Artificial

Chile cuenta con una Política Nacional de Inteligencia Artificial, impulsada por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación (MinCiencia). Esta política define una hoja de ruta con tres ejes: factores habilitantes, desarrollo de IA y gobernanza y ética.

Algunos principios transversales clave de esta política son:

  • Uso ético y responsable, centrado en las personas
  • IA al servicio de un desarrollo sostenible
  • Articulación internacional y trabajo con organismos multilaterales

 

En 2023, Chile decidió actualizar el eje de Gobernanza y Ética precisamente por el avance acelerado de la IA generativa (tipo ChatGPT y similares), incorporando recomendaciones de diversos organismos y procesos participativos.

En resumen, esta política no es todavía una ley, pero sí marca una dirección clara:

IA que impulse la innovación, pero con foco en derechos humanos, inclusión y participación.

 

¿Existe ya una ley IA en Chile?

Chile está avanzando en una ley que regula los sistemas de IA, conocida informalmente como “ley IA”.

El 7 de mayo de 2024, el Ejecutivo ingresó a la Cámara de Diputadas y Diputados el Proyecto de Ley que regula los sistemas de Inteligencia Artificial (Boletín 16821-19).

El objetivo declarado de este proyecto es:

  • Establecer reglas claras para quienes desarrollan, implementan o comercializan sistemas de IA
  • Promover un uso ético, transparente y responsable de la IA
  • Respetar los derechos fundamentales para garantizar dignidad, libertad e igualdad, en línea con un desarrollo social justo y democrático.

 

Además, el proyecto:

  • Adopta un enfoque basado en riesgos, inspirándose en modelos como el AI Act europeo.
  • Clasifica los sistemas de IA según su nivel de riesgo (inaceptable, alto, limitado, mínimo) y define obligaciones diferentes para cada categoría.
  • Establece definiciones para actores como proveedores, implementadores y usuarios de sistemas de IA en Chile.

 

En 2025, la Cámara de Diputadas y Diputados aprobó y despachó al Senado este proyecto, marcando un hito para el desarrollo tecnológico del país.

 

 

 

Regulación de la IA en Chile IA360.CL

 

¿Cómo se compara la regulación de la IA en Chile con la de la Unión Europea?


¿Qué es el AI Act de la Unión Europea?

La Unión Europea es hoy el referente más citado cuando se habla de regulación de la IA a nivel mundial, gracias a su AI Act, considerado el primer marco legal integral sobre esta tecnología.

El AI Act se basa en un enfoque por niveles de riesgo:

  • Riesgo inaceptable: prácticas prohibidas (como sistemas de puntuación social al estilo “credit score” social, manipulación de vulnerabilidades o ciertas formas de reconocimiento facial masivo).
  • Alto riesgo: sistemas usados en sectores críticos (infraestructura, educación, empleo, salud, justicia, procesos democráticos, etc.), que deben cumplir obligaciones estrictas de evaluación y mitigación de riesgos.
  • Riesgo limitado o mínimo: la mayoría de las aplicaciones, donde se aplican sobre todo obligaciones de transparencia o buenas prácticas.

 

La implementación es gradual: las primeras prohibiciones ya entraron en vigor en 2025 y las obligaciones para sistemas de alto riesgo se aplicarán de forma plena hacia 2027.

 

¿En qué se parecen y se diferencian Chile y la UE?

Tanto el proyecto chileno como el AI Act:

  • Usan un modelo basado en riesgos
  • Prohíben ciertos usos de riesgo inaceptable, especialmente vinculados a discriminación o violación de derechos fundamentales
  • Exigen más obligaciones a sistemas de alto riesgo (documentación, evaluación de impacto, transparencia, supervisión humana)

 

La gran diferencia es de contexto:

  • La UE busca fijar un estándar global para un mercado enorme y muy regulado
  • Chile adapta esos principios a la realidad latinoamericana, combinando protección de derechos con un énfasis fuerte en impulsar la innovación y el emprendimiento

 

Para una empresa chilena que trabaja con IA, esto significa que:

  • Si opera en Europa, deberá cumplir el AI Act
  • Si opera en Chile, deberá prepararse para un marco similar en espíritu, pero ajustado al contexto local

 

¿Qué papel juegan las políticas de la IA y la ética a nivel global?


Propuesta de la UNESCO sobre ética de la IA

La UNESCO aprobó en 2021 la Recomendación sobre la Ética de la Inteligencia Artificial, el primer estándar global en esta materia.

Esta recomendación pone como eje:

  • La protección de los derechos humanos y la dignidad
  • La transparencia y la equidad
  • La importancia de la supervisión humana de los sistemas de IA

 

También advierte sobre riesgos como:

  • Discriminación y desigualdad
  • Exclusión digital
  • Uso indebido de datos personales

 

Chile ha estado muy activo en este espacio: en 2023 se firmó la Declaración de Santiago para promover una IA ética en América Latina y el Caribe, en conjunto con UNESCO y el Banco de Desarrollo de América Latina y el Caribe (CAF).

En la práctica, estas políticas de la IA y recomendaciones éticas sirven como brújula:

Las leyes cambian país a país, pero los principios éticos (derechos humanos, justicia, transparencia, supervisión humana) se están volviendo un lenguaje común.

 

¿Qué retos éticos y regulatorios plantea la IA hoy?

Aunque cada país avanza a su ritmo, hay preguntas comunes que están en el centro del debate:

  • ¿Cómo evitar que la IA refuerce sesgos de género, raza o clase?
  • ¿Quién responde por un error grave de un sistema automatizado (por ejemplo, un modelo que niega injustamente un crédito o una prestación social)?
  • ¿Cómo equilibramos innovación y protección de derechos sin frenar el desarrollo tecnológico?

 

Recomendaciones para las empresas en el contexto chileno

Aunque la ley IA chilena aún está en tramitación, es un buen momento para adelantarse. Algunas acciones prácticas:

  • Mapear dónde y cómo usas IA en tu organización (productos, procesos internos, atención al cliente, análisis de datos, etc.)
  • Clasificar los usos por riesgo, inspirándote en las categorías de Chile y la UE:
    • ¿Algún sistema afecta decisiones sobre empleo, salud, educación, crédito o derechos fundamentales?
  • Definir políticas internas de IA, alineadas con:
    • La Política Nacional de Inteligencia Artificial de Chile
    • La Recomendación de la UNESCO sobre ética de la IA
  • Involucrar a áreas como legal, compliance, TI y negocio para que la IA no sea solo un tema técnico.
  • Documentar decisiones clave, proveedores de IA, fuentes de datos y criterios de evaluación de riesgo.

 

¿Hacia dónde va la regulación de la IA en los próximos años?

Todo indica que veremos:

  • Más leyes IA nacionales, tomando como referencia el AI Act europeo
  • Mayor peso de principios globales como los de UNESCO en políticas públicas y guías corporativas
  • Exigencias crecientes en:
    • Transparencia
    • Explicabilidad
    • Supervisión humana
    • Evaluaciones de impacto en derechos fundamentales

 

Como lo indican los documentos expuestos, el objetivo es que la IA sea “un instrumento para las personas y una fuerza positiva en la sociedad, cuyo fin último sea incrementar el bienestar humano”.

La gran pregunta, entonces, ya no es solo “qué puede hacer la IA”, sino bajo qué reglas,  límites y responsabilidades operará, y cómo nos prepararemos para aplicar este marco regulatorio en nuestras empresas

 

Fuentes consultadas

  • Ministerio de Ciencia, Tecnología, Conocimiento e Innovación de Chile – Política Nacional de Inteligencia Artificial y actualización del Eje de Gobernanza y Ética. minciencia.gob.cl
  • MinCiencia – Proyecto de Ley que regula los sistemas de IA. minciencia.gob.cl
  • Comisión Europea – AI Act: regulatory framework for AI. digital-strategy.ec.europa.eu
  • UNESCO – Recomendación sobre la Ética de la Inteligencia Artificial. unesco.org

Te invitamos a Leer:

Contenidos