La Unión Europea prepara la primera Ley de Inteligencia Artificial
- Valeria Navarro
- Feb 6, 2024
- 2 min read
En dos años entrará en vigor la Ley de Inteligencia Artificial (IA) que la Unión Europea (UE) está preparando para regular el uso de esa tecnología. Será la primera en el mundo por lo que se espera que marque la pauta para que otras regiones se pongan a trabajar en el tema.
Todo sistema o aplicación que amenace los derechos fundamentales de las personas será prohibido por dicho marco legal.
La Comisión Europea ha clasificado los riesgos de la AI en cuatro tipos. Riesgos inadmisibles que serán prohibidos por completo. Ejemplos:
Juguetes que utilicen asistencia vocal con el fin de incitar a comportamientos peligrosos a los menores;
Sistemas que permitan la ‘puntuación social’ por parte de gobiernos o empresas;
Aplicaciones de actuación policial predictiva;
Ciertos sistemas biométricos como los sistemas de reconocimiento de emociones en el trabajo;
Sistemas para clasificar a las personas o la identificación biométrica remota en tiempo real con propósitos policiales en sitios públicos (con ciertas excepciones).
Alto riesgo, que deberán cumplir requisitos como: conjuntos de datos de alta calidad, registro de actividad, mitigación de riesgos, documentación detallada, información clara a los usuarios, supervisión humana y un alto grado de solidez, precisión y ciberseguridad.
Algunos ejemplos son:
Determinadas infraestructuras de agua, gas y electricidad;
Productos sanitarios;
Sistemas para determinar el acceso a instituciones educativas o para la contratación de personas;
Sistemas utilizados en los ámbitos de la policía, el control fronterizo, la administración de justicia y los procesos democráticos;
Sistemas de identificación biométrica, categorización y reconocimiento de emociones.
Riesgo mínimo, donde se ubica la gran mayoría de los sistemas de IA, como:
Sistemas de recomendación o filtros de correo no deseado basados en la IA. Estos sistemas no atentan con los derechos o la seguridad de los ciudadanos.
Riesgo específico de transparencia, como:
Los robots conversacionales. Los usuarios deben saber que están interactuando con una máquina. Para ello, las ultra falsificaciones y otros contenidos generados por la IA deberán portar una etiqueta con sus características. Lo mismo sucederá con los sistemas de categorización biométrica o de reconocimiento de emociones.
De igual forma, los proveedores de estos sistemas deberán ceñirse al diseño de un formato legible por máquina para los contenidos sintéticos de audio, video, texto e imágenes y puedan reconocerse como generados o manipulados artificialmente.
En caso de infringir con el uso de sistemas o aplicaciones de IA prohibidas, la nueva ley impondrán multas a las empresas de entre 35 millones de euros o 7 % del volumen de negocios anual mundial (si esta cifra es superior); 15 millones de euros o 3 % por incumplimiento de otras obligaciones y 7.5 millones de euros o 1.5 % por presentar información incorrecta. En cuanto a las pymes y empresas emergentes, habrán multas administrativas proporcionadas al volumen de sus negocios.
Dicho marco jurídico regirá de la misma forma en todos los Estados miembros de la UE.
Fuentes: