Hacia una IA Ética en la Administración Pública: Análisis del Lineamiento N.º 000001‑2025‑GEG/INDECOPI frente a Estándares Internacionales

  1. Introducción

El Lineamiento N.º 000001-2025-GEG/INDECOPI marca un hito en la institucionalización de la ética en el uso de tecnologías emergentes en el Perú, al establecer un marco normativo interno para el uso de sistemas de inteligencia artificial (IA) en el Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual – INDECOPI. No obstante, si bien representa un avance, el documento también revela deficiencias normativas, vacíos operativos y ambigüedades que merecen ser revisadas críticamente.

 

  1. Marco normativo y contenido estructural

El Lineamiento se basa en un sólido marco legal nacional, destacando la Ley N.º 31814 (promoción de IA), la Ley N.º 29733 (protección de datos personales) y el Decreto Legislativo N.º 1412 (Ley de Gobierno Digital). Además, establece principios éticos como transparencia, rendición de cuentas, proporcionalidad, equidad y supervisión humana.

Las responsabilidades están distribuidas entre las unidades organizacionales, la Oficina de Tecnologías de la Información (OTI) y el Equipo de Trabajo de Inteligencia Artificial (ETIA), quienes deben garantizar el cumplimiento de los principios, supervisar proyectos y mantener un Inventario de IA.

 

III. Análisis crítico

  1. Fortalezas
  • Enfoque preventivo: El lineamiento contiene prohibiciones claras respecto al uso de IA sin autorización, automatización de decisiones sin supervisión y uso indebido de datos personales, en línea con la legislación vigente.
  • Principios éticos bien definidos: Adopta principios coherentes con los estándares internacionales, como los de la OCDE (2019), UNESCO (2021) y el AI Act de la UE (2024).
  • Aplicabilidad inmediata: Abarca tanto sistemas en desarrollo como en ejecución, y responsabiliza funcionalmente a servidores civiles y proveedores.
  1. Debilidades normativas
  • Falta de fuerza normativa vinculante: Al tratarse de un lineamiento y no un reglamento, su exigibilidad podría ser cuestionada jurídicamente en procesos disciplinarios si no se ancla explícitamente al Reglamento Interno de Servidores Civiles (RISC).
  • Ausencia de tipificación de riesgos: El documento no clasifica los sistemas de IA por nivel de riesgo (alto, medio, bajo), lo cual impide aplicar principios de proporcionalidad regulatoria. Este enfoque es esencial, según el Reglamento Europeo de IA (UE, 2024) y recomendaciones de Schuett (2022).
  • Insuficiente transparencia operativa: Si bien se menciona la “transparencia”, no se exige que los modelos de IA sean explicables o auditables, ni se contempla una obligación de publicación de informes de impacto o revisiones periódicas.
  • Falta de evaluación de impacto ético-jurídico: El Lineamiento no incorpora la obligación de realizar una evaluación de impacto legal y ético, elemento crucial para mitigar sesgos algorítmicos o efectos colaterales.
  • Ambigüedad en la responsabilidad jurídica: Aunque reconoce la responsabilidad del servidor, no precisa si las infracciones derivadas del uso indebido de IA configuran falta leve o grave, y cómo deben calificarse jurídicamente.

 

  1. Comparación con estándares internacionales

Principio

Lineamiento INDECOPI

OCDE (2019)

UNESCO (2021)

AI Act UE (2024)

Supervisión humana

Obligatoria en IA de alto riesgo

Transparencia

General

Requiere explicabilidad

Requiere trazabilidad

Auditabilidad técnica

Clasificación por riesgo

No

Parcial

Sí (alto/medio/bajo)

Evaluación de impacto

No

Recomendado

Obligatorio para derechos

Obligatorio en alto riesgo

Sanciones definidas

Parcial (remisión al RISC)

No aplica

No aplica

Sanciones administrativas

Participación ciudadana

No contemplada

Recomendado

Obligatoria

Limitada a procesos públicos

 

  1. Recomendaciones
  1. Incorporar una tipología de riesgo de IA, como lo sugiere el AI Act, permitiendo un enfoque escalonado y proporcional.
  2. Exigir informes de evaluación de impacto ético y jurídico, en especial cuando la IA influya en decisiones sobre consumidores, propiedad intelectual o sanciones.
  3. Fortalecer la trazabilidad y explicabilidad técnica de los sistemas, garantizando mecanismos de revisión externa e independencia técnica.
  4. Tipificar infracciones vinculadas al mal uso de IA en el RISC, estableciendo criterios para sanciones.
  5. Promover formación continua obligatoria para los operadores de IA, según el principio de educación ética.

 

  1. Conclusión

El Lineamiento N.º 000001‑2025‑GEG/INDECOPI es un instrumento pionero, pero insuficiente. Su estructura normativa debe complementarse con disposiciones vinculantes, un enfoque de riesgo e instrumentos de fiscalización. Solo así se logrará una verdadera institucionalización de la ética digital en el Estado.

 

Referencias APA

  • OCDE. (2019). Principios sobre la inteligencia artificial. OECD AI Observatory.
  • UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. UNESCO.
  • Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo sobre Inteligencia Artificial. Diario Oficial de la Unión Europea.
  • Schuett, J. (2022). Risk management in the Artificial Intelligence Act. arXiv preprint. https://arxiv.org/abs/2212.03109

 

Consulta ahora con nuestros especialistas y recibe un análisis detallado para tu situación particular. visite nuestra Área y Servicios de Investigación, quien coordina nuestro programa de Compliance a empresas conjuntamente con el Área de Derecho Empresarial.