Lo que permite y prohíbe la nueva Ley de Inteligencia Artificial aprobada en Europa

Marzo 14/24 Los 15 países del Parlamento Europeo aprobaron la llamada “Ley de Inteligencia Artificial”, que busca impulsar la innovación pero, sobre todo, garantizando la seguridad y el respeto de los derechos fundamentales.

Aunque la norma no aplica en otras regiones del mundo (ni Colombia), es bueno tenerla como referente para una ineludible tendencia: Legislación sobre el impacto y los alcances de la inteligencia artificial, tan cercana a los desarrollos de la educación superior.

Los sistemas de Inteligencia Artificial (IA) se consideran siempre de alto riesgo si realizan perfiles de las personas, es decir, el tratamiento automatizado de datos personales para evaluar diversos aspectos de la vida de una persona, como su rendimiento laboral, su situación económica, su salud, sus preferencias, sus intereses, su fiabilidad, su comportamiento, su ubicación o sus movimientos.

Las principales características, o prohibiciones, de la norma, (cuyo texto íntegro puede leerse aquí -en inglés), son:

– El despliegue de técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y perjudicar la toma de decisiones con conocimiento de causa, causando un daño significativo.

– La explotación de las vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento, causando daños significativos.

– Los sistemas de categorización biométrica que infieran atributos sensibles (raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida sexual u orientación sexual), excepto el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente o cuando las fuerzas de seguridad categoricen datos biométricos.

– La puntuación social, es decir, evaluar o clasificar a individuos o grupos basándose en comportamientos sociales o rasgos personales, causando un trato perjudicial o desfavorable a esas personas.

– La evaluación del riesgo de que un individuo cometa delitos penales basándose únicamente en perfiles o rasgos de personalidad, excepto cuando se utilice para aumentar las evaluaciones humanas basadas en hechos objetivos y verificables directamente relacionados con la actividad delictiva.

– La compilación de bases de datos de reconocimiento facial mediante el raspado no selectivo de imágenes faciales de Internet o de grabaciones de CCTV.

– El inferir en las emociones en lugares de trabajo o centros educativos, salvo por razones médicas o de seguridad.

– La identificación biométrica remota (RBI) “en tiempo real” en espacios de acceso público para las fuerzas de seguridad, excepto cuando hay búsqueda de personas desaparecidas, víctimas de secuestros y personas víctimas de la trata de seres humanos o la explotación sexual; se busca prevenir una amenaza sustancial e inminente para la vida, o un ataque terrorista previsible; o se quiere identificar a sospechosos de delitos graves (por ejemplo, asesinato, violación, robo a mano armada, tráfico de estupefacientes y armas ilegales, delincuencia organizada y delitos contra el medio ambiente, etc.). Sólo está permitido cuando no utilizar la herramienta causaría un daño considerable y debe tener en cuenta los derechos y libertades de las personas afectadas.

Asimismo, los proveedores de modelos GPAI (sistema de IA basado en un modelo de IA de propósito general, que tiene la capacidad de servir a una variedad de propósitos, tanto para uso directo como para su integración en otros sistemas de IA) de licencia libre y abierta sólo tienen que respetar los derechos de autor y publicar el resumen de datos de formación, a menos que presenten un riesgo sistémico.

Finalmente, las imágenes, contenidos de audio o de vídeo artificiales o manipulados («ultrafalsificaciones») deberán etiquetarse claramente como tales.

Loading

Compartir en redes