(Foto: tondone/iStock)
(Foto: tondone/iStock)

Con la publicación del Decreto Supremo N.° 115-2025-PCM en El Peruano, el Perú cuenta ahora con un reglamento oficial sobre el uso de la inteligencia artificial. Según el Ejecutivo, la medida busca garantizar una aplicación ética, responsable y sostenible de esta tecnología para contribuir al desarrollo económico y social.

La norma abarca tanto el uso público como privado de la inteligencia artificial y fija principios como la no discriminación, la transparencia, la sostenibilidad, la protección de datos y la supervisión humana. Su aplicación será progresiva y no representará gastos adicionales para el Tesoro Público.

Este reglamento sobre inteligencia artificial tendrá carácter obligatorio para todas las entidades del Estado, en todos los niveles de gobierno.

Dicha norma también se extiende a empresas públicas y privadas, universidades y organizaciones sociales integradas al Sistema Nacional de Transformación Digital.

El reglamento exceptúa solo el uso personal de la inteligencia artificial, así como las aplicaciones relacionadas con la defensa y seguridad nacional, siempre bajo el respeto de los principios rectores. Su implementación busca resguardar los derechos fundamentales y asegurar la seguridad jurídica.

La Secretaría de Gobierno y Transformación Digital de la PCM será la responsable de dirigir y supervisar la implementación de la política nacional sobre inteligencia artificial. También tendrá a su cargo la emisión de lineamientos técnicos, la promoción de buenas prácticas y la garantía de mecanismos de rendición de cuentas.

Entre sus funciones se incluye la elaboración de la Estrategia Nacional de Inteligencia Artificial (ENIA) al 2030 y de la estrategia de gobierno de datos, las cuales deberán presentarse en un plazo máximo de un año.

Conforme al reglamento, las entidades estatales tendrán que adoptar una política institucional sobre el uso de la inteligencia artificial, sustentada en sus principios rectores. Asimismo, deberán conformar equipos técnicos multidisciplinarios y emplear estándares internacionales, entre ellos la norma ISO/IEC 42001.

Asimismo, las entidades estarán obligadas a publicar los códigos fuente desarrollados con fondos públicos y a garantizar la supervisión humana en decisiones automatizadas que puedan impactar derechos fundamentales, en particular en los ámbitos de salud, justicia, educación y programas sociales.

Según el reglamento, la inteligencia artificial se clasifica en riesgo alto y uso indebido. Este último está prohibido de manera expresa e involucra prácticas como la vigilancia masiva carente de base legal, el perfilamiento por datos sensibles, la predicción de delitos sin respaldo objetivo y el uso de sistemas autónomos con capacidad letal.

Los sistemas de alto riesgo están autorizados, siempre que cumplan con requisitos de transparencia, supervisión humana y evaluación de impacto, en especial en ámbitos sensibles como salud, empleo y educación.

Las empresas privadas estarán obligadas a adoptar políticas de uso responsable de la inteligencia artificial. Cuando se trate de sistemas de alto riesgo, deberán asegurar la transparencia algorítmica, realizar auditorías de seguridad y garantizar la supervisión humana.

Estas obligaciones no se aplicarán de manera inmediata a todas las empresas, ya que los plazos variarán según su tamaño y sector, permitiendo una implementación gradual. En el caso de las MYPES, contarán con un plazo de entre dos y tres años para adecuarse a los requisitos técnicos.

En el marco del enfoque inclusivo del reglamento, se habilitó un canal digital sobre inteligencia artificial en la Plataforma Única del Estado ().

Te puede interesar