top of page

Marco legal de la IA en Colombia: Estado actual y desafíos

Actualizado: hace 23 minutos


La inteligencia artificial está transformando sectores enteros de la economía y la sociedad colombiana. Desde asistentes virtuales hasta sistemas de diagnóstico médico, pasando por algoritmos de toma de decisiones en entidades financieras y gubernamentales, la IA se ha convertido en una realidad cotidiana. Sin embargo, el marco regulatorio colombiano no ha evolucionado al mismo ritmo que la tecnología, creando un escenario de incertidumbre jurídica tanto para desarrolladores como para usuarios.


En iure hemos asesorado a diversas organizaciones sobre los desafíos legales que implica implementar soluciones basadas en IA en Colombia. Este análisis presenta un panorama actualizado de la situación regulatoria actual y los principales vacíos que enfrentan las empresas e instituciones que utilizan estas tecnologías.




El estado actual: un mosaico de normas no específicas


Colombia carece de una legislación específica y comprensiva sobre inteligencia artificial. En su lugar, las actividades relacionadas con IA se rigen por un conjunto disperso de normas que no fueron diseñadas para abordar los desafíos únicos que presenta esta tecnología:


  • Protección de datos personales: La Ley 1581 de 2012 y sus decretos reglamentarios regulan el tratamiento de datos personales, pero no abordan específicamente cuestiones como la toma de decisiones automatizada, el perfilamiento algorítmico o el uso de datos para entrenar sistemas de IA.

  • Propiedad intelectual: Como hemos analizado recientemente respecto a obras generadas por IA, la Decisión Andina 351 de 1993 y la Ley 23 de 1982 no contemplan escenarios donde el creador no sea humano, generando vacíos importantes sobre la titularidad de creaciones generadas por IA.

  • Responsabilidad civil y administrativa: El marco actual de responsabilidad civil no ofrece claridad sobre quién debe responder por daños ocasionados por sistemas autónomos de IA: ¿el desarrollador, el usuario, el proveedor de datos de entrenamiento?

  • Contratación pública: No existen lineamientos específicos para la adquisición y uso de sistemas de IA en el sector público, lo que genera riesgos tanto para las entidades como para los ciudadanos.


Iniciativas y lineamientos: primeros pasos hacia una regulación


A pesar de la ausencia de legislación específica, existen algunas iniciativas que empiezan a delinear un marco regulatorio para la IA en Colombia:


  1. CONPES 3975 de 2019: Este documento de política establece la estrategia nacional para la transformación digital e IA, pero se enfoca principalmente en la promoción de su adopción más que en su regulación.

  2. Guía de análisis de impacto normativo para IA: La SIC (Superintendencia de Industria y Comercio) ha publicado directrices para evaluar el impacto de sistemas de IA, especialmente en lo relacionado con protección al consumidor y competencia.

  3. Documento Marco Ético para IA en Colombia: Publicado por el Ministerio TIC, establece principios generales como transparencia, explicabilidad y responsabilidad, pero sin fuerza vinculante.

  4. Sandbox regulatorios: Algunas entidades han implementado ambientes de prueba regulatorios para experimentar con IA bajo supervisión (como la Superintendencia Financiera en el sector bancario).


Principales vacíos y desafíos regulatorios


La brecha entre la tecnología disponible y el marco normativo genera importantes desafíos para empresas y entidades que utilizan o desarrollan IA en Colombia:


1. Vacío en responsabilidad por sistemas autónomos


Los sistemas de IA más avanzados toman decisiones sin intervención humana directa, basándose en patrones identificados en grandes volúmenes de datos. El ordenamiento jurídico colombiano no establece claramente quién es responsable cuando estas decisiones automatizadas causan daños.


Ejemplo práctico: Una entidad financiera implementa un sistema de IA para evaluar solicitudes de crédito. Si el algoritmo discrimina sistemáticamente a ciertos grupos poblacionales, ¿quién es responsable: el banco, el desarrollador del algoritmo, o quienes proporcionaron los datos de entrenamiento?


2. Ausencia de criterios para transparencia algorítmica


No existen estándares legales sobre qué nivel de transparencia y explicabilidad deben tener los algoritmos, especialmente aquellos utilizados en el sector público o en decisiones que afectan derechos fundamentales.


Ejemplo práctico: Una entidad estatal implementa un sistema de IA para priorizar la asignación de subsidios. ¿Está obligada a explicar cómo funciona el algoritmo? ¿Qué nivel de detalle debe proporcionar a los ciudadanos sobre cómo se toman estas decisiones?


3. Incertidumbre sobre propiedad intelectual


Como hemos analizado recientemente respecto a obras generadas por IA, el marco actual de propiedad intelectual no ofrece soluciones claras para determinar la titularidad de creaciones donde la IA juega un rol significativo.


Desafío empresarial: Una empresa de desarrollo de software en Colombia ha creado un sistema de IA que genera código de manera autónoma. No tiene claridad sobre cómo proteger estas creaciones ni qué derechos puede ejercer sobre ellas.


4. Vacíos en protección de datos para IA


La normativa actual de protección de datos no aborda adecuadamente escenarios como:

  • El perfilamiento algorítmico y su impacto en derechos fundamentales

  • El uso de datos para entrenar sistemas de IA

  • La aplicación del principio de finalidad cuando los datos se utilizan para fines no previstos inicialmente


5. Ausencia de estándares de seguridad y certificación


No existen en Colombia estándares obligatorios específicos para evaluar la seguridad, fiabilidad y calidad de sistemas de IA, lo que dificulta tanto la certificación como la supervisión por parte de autoridades.


Recomendaciones prácticas para empresas y organizaciones


Ante este panorama de incertidumbre regulatoria, en iure recomendamos a empresas y organizaciones que utilizan IA adoptar un enfoque preventivo:


  1. Implementar evaluaciones de impacto: Realizar análisis exhaustivos sobre posibles impactos éticos, legales y sociales antes de implementar sistemas de IA críticos.

  2. Adoptar estándares internacionales voluntariamente: Seguir marcos reconocidos como las Directrices Éticas para una IA Confiable de la UE o los principios de la OCDE, adelantándose a posibles regulaciones futuras.

  3. Maximizar transparencia: Documentar y comunicar claramente cómo funcionan los sistemas de IA, qué datos utilizan y cómo toman decisiones, especialmente cuando afectan a derechos de individuos.

  4. Supervisión humana significativa: Asegurar que existan mecanismos eficaces de supervisión humana, particularmente en sistemas que toman decisiones con impacto significativo.

  5. Actualización contractual: Revisar y adaptar contratos con proveedores, clientes y usuarios para abordar específicamente las particularidades de la IA.


Perspectivas futuras: hacia un marco regulatorio integral


Colombia necesita avanzar hacia un marco regulatorio que equilibre la promoción de la innovación con la protección de derechos fundamentales. Algunas tendencias que probablemente marcarán el desarrollo normativo incluyen:


  • Armonización internacional: Es probable que Colombia se alinee con estándares internacionales emergentes, como el enfoque de la UE con su Reglamento de IA.

  • Regulación sectorial: Antes que una ley general de IA, veremos probablemente regulaciones específicas en sectores críticos como finanzas, salud y administración pública.

  • Enfoque basado en riesgos: La tendencia global apunta a regular la IA según su nivel de riesgo, con requisitos más estrictos para sistemas de alto impacto.


Conclusión


El marco legal de la IA en Colombia se encuentra en una etapa embrionaria, caracterizada por vacíos significativos y la aplicación de normas no diseñadas específicamente para esta tecnología. Esta situación genera importantes desafíos para empresas, entidades públicas y desarrolladores.

Mientras el marco regulatorio evoluciona, las organizaciones deben adoptar un enfoque proactivo, anticipándose a futuras regulaciones y priorizando principios éticos, transparencia y responsabilidad en el desarrollo e implementación de sistemas de IA.


En iure contamos con experiencia especializada para acompañar a su organización en la navegación de este complejo panorama regulatorio. Nuestro enfoque combina conocimiento técnico y jurídico para desarrollar estrategias que minimicen riesgos legales mientras maximizan el potencial innovador de la IA.


¿Está implementando soluciones basadas en IA en su organización? Contáctenos para una evaluación personalizada de su situación legal y recomendaciones adaptadas a su contexto específico.


bottom of page