La ley de Inteligencia Artificial que impactará al mundo

Compartir en:

La Ley de Inteligencia Artificial de la Unión Europea (AI Act) es una regulación pionera en el ámbito global y ha sido diseñada para establecer un marco legal para el desarrollo y uso seguro de la inteligencia artificial. Aprobada el 21 de mayo de 2024 por el Concejo de la Unión Europea, la AI Act  introduce un sistema de requisitos regulatorios para diferentes aplicaciones de IA, según su nivel de riesgo.

En esta nota te daremos una panorámica de esta importante legislación, te contaremos cuál es el sistema de riesgos que establece y cómo dialoga con la normativa que Chile prepara en materia de IA.

“Esta ley histórica, la primera de su tipo en el mundo, aborda un desafío tecnológico global donde Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad cuando se trata de nuevas tecnologías y, al mismo tiempo, garantiza que esta tecnología en rápida evolución pueda florecer e impulsar la innovación”,  señalo Mathieu Michel, secretario de Estado belga de digitalización, al momento de aprobar el cuerpo legal.

“Para los distintos sectores productivos del país, es relevante estar atentos a cómo decanta esta legislación, pues es la que inspira el Proyecto de Ley que presentará el gobierno de Chile”, dice Daniel Bastian, gerente de operaciones de Fusiona. 

La clasificación de riesgo de la Ley de Inteligencia Artificial

La nueva ley categoriza los diferentes tipos de inteligencia artificial según su nivel de riesgo. Los sistemas de IA que presentan sólo un riesgo limitado estarán sujetos a obligaciones de transparencia, mientras que los sistemas de IA de alto riesgo deberán cumplir con un conjunto de requisitos y obligaciones.

Los sistemas de IA como, por ejemplo, la manipulación cognitiva conductual estarán prohibidos en la UE debido a que su riesgo se considera inaceptable. La ley también prohíbe el uso de IA  predictiva basada en perfiles y sistemas que utilizan datos biométricos para categorizar a las personas según categorías específicas como raza, religión u orientación sexual. Por ejemplo, los sistemas de calificación crediticia basados en IA se consideran de alto riesgo debido a su potencial discriminatorio.

Pirámide con los riesgos de la IA. Fuente: Consejo Unión Europea.

Riesgos mínimos o nulos

La gran mayoría de los sistemas de IA no presentan riesgos, por lo que podrán seguir utilizándose y no estarán regulados ni afectados por la Ley de IA de la UE.

Riesgos limitados

Los sistemas de IA que presenten solo riesgos limitados estarán sujetos a obligaciones de transparencia, como la divulgación de que su contenido fue generado por IA, para que los usuarios puedan tomar decisiones informadas sobre su uso posterior.

Riesgos altos

Una amplia gama de sistemas de IA de alto riesgo estará autorizada, pero deberá cumplir con un conjunto de requisitos y obligaciones para acceder al mercado de la UE.

Riesgos inaceptables

Para algunos usos de la inteligencia artificial, los riesgos se consideran inaceptables, por lo que estos sistemas estarán prohibidos en la UE. Estos incluyen la manipulación cognitiva y conductual, el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, y la puntuación social. Los sistemas de identificación biométrica remota, como el reconocimiento facial, también estarán prohibidos, con algunas excepciones limitadas.

Gobernanza de la Ley AI

Para asegurar la correcta aplicación de la ley, se establecieron varios organismos de gobierno:

  • Una Oficina de IA dentro de la Comisión para hacer cumplir las normas comunes en toda la UE.
  • Un panel científico de expertos independientes para apoyar las actividades de aplicación.
  • Una Junta de IA con representantes de los estados miembros para asesorar y ayudar a la Comisión y a los estados miembros en la aplicación consistente y efectiva de la Ley de IA.
  • Un foro consultivo para que las partes interesadas proporcionen experiencia técnica a la Junta de IA y a la Comisión.

Política de sanciones

Las multas por infracciones a la Ley de IA se establecen como un porcentaje de la facturación anual global de la empresa infractora en el año financiero anterior o una cantidad predeterminada, lo que sea mayor. Las pymes y las start-ups estarán  sujetas a multas administrativas proporcionales.

La Ley de Inteligencia Artificial y Chile

En Chile, se ha avanzado en la regulación de la inteligencia artificial (IA), siguiendo el ejemplo de la Unión Europea. El gobierno ha presentado el Proyecto de Ley de IA que busca regular el uso de la IA en el país. 

Este proyecto clasifica los sistemas de IA en los cuatro niveles de riesgo establecido por la AI Act ( inaceptable, alto, moderado y sin riesgo evidente),  establece sanciones administradas por la futura Agencia de Protección de Datos Personales y promueve la transparencia y apoyo a las pequeñas empresas en el uso de IA. La normativa está inspirada en la legislación europea y busca equilibrar la protección de los derechos con la innovación tecnológica?.

“El proyecto de ley es uno de los primeros a nivel mundial en su campo, basándose en la normativa europea sobre IA, además de los principios de Unesco y OCDE en materia tecnológica. Es importante destacar que el proyecto nacional de IA, también incorpora el trabajo de la Comisión de Desafíos del Futuro del Senado y de la Comisión de Futuro de la Cámara de Diputados, junto con las recomendaciones del Consejo Asesor de IA. Todo esto permite que esta propuesta de regulación se alinee eficazmente con los países a los que exportamos y de los que importamos tecnología”, explicó la ministra de Ciencias y Tecnología en su sitio web,cartera donde radica este tema.

Qué puede hacer mi empresa frente a la Ley de IA

La  ley de IA impulsada por el Parlamento y el Consejo de la Unión Europea será la legislación referente en el mundo para la regulación de la IA. Como señalamos más arriba, Chile es uno de los primeros países que están trabajando en la regulación de este tema, poniéndose en la vanguardia en IA y legislación.

“Desde el punto de vista de las empresas y organizaciones, deben tomarse el tiempo para crear mapas de los sistemas de IA que desarrollan y utilizan, categorizando sus niveles de riesgo según se definen en la Ley de IA de la Unión Europea, que será la base de la legislación chilena.

Si alguno de sus sistemas de IA cae en la categoría de riesgo limitado, alto o inaceptable, deberán evaluar el impacto de la Ley de IA en su organización. Es imperativo comprender este impacto y cómo responder”, finaliza Daniel Bastian.

También te podría interesar: SGE Google cambiará el futuro de la búsqueda

Skip to content