El pasado 13 de marzo el Parlamento Europeo aprobó, por una amplia mayoría, la ley de inteligencia artificial. El objetivo de esta nueva normativa, de acuerdo con lo expuesto por la propia institución en la nota de prensa correspondiente, es la protección de “los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector”.
Uno de los principales puntos que establece esta ley es la prohibición de la categorización biométrica de las personas mediante la “captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial” o el reconocimiento de emociones en el ámbito laboral o el escolar.
La inteligencia artificial es una realidad muy compleja que, en la actualidad, forma parte del día a día de muchas personas. Y esta normativa regula algunos de los usos que se le pueden dar a esta herramienta. Desde INFOVERITAS te explicamos todas las claves de la ley.
Una ley de inteligencia artificial basada en los riesgos de su uso
Para hablar más en profundidad de esta nueva normativa europea, desde INFOVERITAS hemos contactado con Idoia Salazar, profesora de Comunicación en la Universidad CEU San Pablo y experta del Observatorio de IA del Parlamento Europeo (EPAIO), especialista en ética e inteligencia artificial, cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) e investigadora principal en el grupo SIMPAIR (Social Impact of Artificial Intelligence and Robotics).
Esta normativa está basada en los riesgos de uso que puede tener esta tecnología. Regula los modelos de IA que, de alguna forma, puedan llegar a dañar “nuestros derechos fundamentales. Mientras que otros que sean usados para automatizar un videojuego, o para los filtros de spam, u otro tipo de cuestiones, pues no se van a regular en absoluto”, puntualiza.
Además, el reglamento también protege la salud, explica. Por ejemplo, permite que “un médico pueda usar un sistema de IA para ayudarse en un diagnóstico, o que pueda usarlo para decir si un paciente tiene una enfermedad o no, o el medicamento indicado para esa persona para resolverlo”. Estas cuestiones, continúa Salazar, en caso de no desarrollarse correctamente “la máquina podría tomar la decisión de manera autónoma, y puede llegar a causar un problema para la humanidad”.
La nueva ley regula estos casos, “ha establecido un sistema de semáforo” que prohíbe determinados usos de la inteligencia artificial.
Prohibiciones de la ley de inteligencia artificial
Idoia Salazar informa de que no se van a poder utilizar modelos de inteligencia artificial para puntuación social, “igual que ocurre en China, no van a poder coger tampoco cámaras de identificación biométrica por las calles para registrar absolutamente todos mis pasos y mis facciones, por dónde voy, y que todo eso quede registrado con los fines que sean, eso también está prohibido”. Las excepciones son muy específicas, con orden judicial y en un período de tiempo determinado por casos de terrorismo, búsqueda de niños desaparecidos “u otras cuestiones que puedan ser importantes para ayudarnos como sociedad”.
Esta normativa permite todos los modelos de inteligencia artificial, excepto aquellos que constituyan un problema directo para los derechos fundamentales de las personas. Por ejemplo, también prohíbe usar sistemas de IA para identificar las emociones de los trabajadores en una empresa y “ver su nivel de satisfacción del día a día”. Y utilizar los datos biométricos para destacar vulnerabilidades de las personas, es decir, “que a mí vayan registrando mis datos para identificar mis vulnerabilidades”.
Se ha establecido un “semáforo rojo” para aquellos usos que afectan a nuestros derechos en la Unión Europea; antes tampoco se podían emplear determinados usos, “pero ahora se recalca que no se van a poder hacer cosas, por mucho que haya capacidad tecnológica, porque afecta a la democracia”.
“Semáforo naranja”: sistemas de alto riesgo
La regulación contiene otra parte de “semáforo naranja”, amplía Salazar, para sistemas de alto riesgo. Por ejemplo, se trata de utilizar un sistema de IA en un departamento de recursos humanos para “que pueda decidir o ayudar a que una persona entre o no en un proceso de selección de una empresa”. En esos casos, las empresas que usen esta tecnología van a tener que cumplir una serie de requisitos de estudio y comprobación de los datos que están usando, para asegurar que “no tienen sesgos, no hay problemas de transparencia, se tiene la supervisión humana adecuada sobre esos datos…”.
Estos modelos de alto riesgo ocupan la mayor parte de la normativa, y también los requisitos que tienen que cumplir las empresas para poder usarlos. “no hay ningún problema con su uso, pero se ponen medidas para tener cuidado a la hora del entrenamiento de ese sistema de IA, y que a mí, por ser mujer de 50 años, no me discriminen en un proceso de acceso a un puesto de trabajo específico”.
Transparencia: otro aspecto clave de la ley de inteligencia artificial
Otro tipo de modelo de IA son los deepfakes, los vídeos falsos creados con esta herramienta, con la que también se puede suplantar a cualquier persona, o el uso de sistemas de IA generativa. Estos aspectos “tienen obligaciones de transparencia, es decir, cuando haya un anuncio en la televisión hecho con estos deepfakes, se va a tener que rotular para decir que ha sido hecho de manera artificial o por un modelo de IA”.
También, cuando un periodista utilice un modelo de IA para escribir una noticia, “se tiene que publicar y se tiene que poner que ha sido hecha por un modelo de IA o de otra manera que nos inventemos para decir que no ha sido una persona la que lo ha hecho, sino que ha sido hecho de manera artificial”, destaca Idoia Salazar.
Se trata de normas de transparencia “que ayudan a la audiencia a tener una mayor confianza en que no haya tanta incertidumbre sobre la autoría de un contenido, si ha sido un humano o una máquina. Creo que es muy acertada esa cuestión”.
En general, la legislación europea está hecha para impulsar la IA, afirma, pero previendo malos usos al respecto, y para “ser más conscientes de los riesgos que puede tener esta tecnología, y en el caso de que los haya, no hay que dejar de usarla, pero pongamos medidas para evitar que haya un problema cuando se use o desarrolle esta tecnología”, concluye.
Algoritmos de bajo riesgo
Los algoritmos de bajo riesgo no están sometidos a regulación, explica esta experta. Estos sistemas provocan un automatismo, no tienen ninguna repercusión en la toma de decisiones. “Es un software que se emplea para automatizar una tarea que no tiene absolutamente ningún tipo de repercusión, más que hacer la tarea en cuestión”, apunta. Por ejemplo, en un videojuego se usan modelos de IA para hacer interacción de los personajes con los usuarios para “aprender cuál es el siguiente punto. Simplemente para automatizar la tarea sin que haya ningún tipo de implicación”.
La mayor parte de los algoritmos de inteligencia artificial que se usan actualmente son de bajo riesgo. Estos “automatizan hacer un análisis sobre un tema concreto en una empresa, un análisis de bolsa, por ejemplo. Tú lo haces y ya está, y se publica el análisis, y tienes que poner que lo has hecho de manera automática, pero ya está”, profundiza Salazar, “o determinados tipos de informes, como hacer uno sobre datos objetivos, y no tiene más”. En las empresas se usa también para automatizar una tarea de gestión muy concreta que simplemente no tiene más repercusión, puntualiza.
“Los problemas vienen cuando sí tienen repercusión para los derechos fundamentales de la persona: acceso a un puesto de trabajo, que me den o no una pensión, que me den acceso a una universidad, o también dentro de la propia empresa, que me ponderen para ver si yo puedo mejorar dentro de mi propio puesto de trabajo o no, eso también tiene que tener una supervisión humana”, ahonda esta experta. La máquina no quita el contexto, afirma, y cualquier implicación “que pueda llevar un problema para la persona sí que es un algoritmo de alto riesgo, y tiene que tener las medidas”.
Y eso “ocurre por una cuestión básica”, destaca Salazar. El algoritmo toma las decisiones según unos datos objetivos que se le han suministrado, por lo que no aplica el contexto que rodea una decisión importante, como el acceso de una persona a un puesto de trabajo. “No todo son datos en la vida, y la persona sí que necesita aplicar sobre la decisión del algoritmo, que le pueda ayudar al ser humano, un contexto, una ética, que está fuera de los datos, y que por ahora solo tiene el humano”. Por ello, en decisiones tan importantes como dejar a una persona fuera de un puesto de trabajo “sí que es necesario que sea el humano el que use la decisión del algoritmo para complementar su propia decisión. Pero al final la decisión la tiene que seguir tomando la persona”.
Uso ético de la inteligencia artificial
Para esta experta, la regulación europea está basada en los principios éticos internacionales de la IA. “Al final es todo lo mismo, como si dijéramos. Lo que pasa es que ahora va a ser obligatorio cumplir una serie de esos requisitos que antes eran solo ética”, asevera. Por ejemplo, el derecho a no ser discriminado; “eso es ética, pero ahora va a estar también regulado”. La transparencia también es ética, señala. “El derecho que tenemos las personas a recibir explicaciones sobre las decisiones que se toman, y que nos puedan afectar, eso también es ética, uno de los principios éticos fundamentales de la IA”. Y, asimismo, un reto técnico, ya que, por ahora, “muchos de los algoritmos de deep learning que se usan en cuestiones más complejas de alto riesgo son como cajas negras: no sabemos qué lógica ha seguido el algoritmo para tomar la decisión que toma. Entonces, es difícil que se puedan usar para decisiones como esa”.
En cualquier caso, continúa, “las empresas son más conscientes de esa necesidad de ni siquiera tener que esperar a la regulación para empezar a aplicar estas normas éticas para evitar discriminación, por ejemplo, tomar medidas para evitar que se produzca esta serie de problemas”. Por ejemplo, aunque no lo necesiten y no usen modelos de alto riesgo, que esas empresas tengan los códigos éticos que aseguren que, a pesar de no precisarlo se van a empezar a aplicar “las medidas de cuidado con los datos y extraer todas las variables que pudieran ser sensibles de sexo, raza, condición social… aunque la aplicación de mi algoritmo no vaya a suponer un problema para las personas, pero lo voy a hacer por defecto en absolutamente todos mis desarrollos en IA, aunque sean de bajo riesgo”.
Prevención temprana de los problemas
El hecho de que cada vez más empresas “lo intenten hacer bien desde el principio, aunque no tengan esa necesidad, pues será el punto necesario para que todo esto avance bien y que no haya más problemas asociados a esto”. Esta experta destaca la importancia de esto, porque la ley de inteligencia artificial da un período de seis meses para que los algoritmos prohibidos dejen de operar en la UE. Sin embargo, para los de alto riesgo “hasta dentro de dos años no tienen que empezar a tomarse todas esas medidas. En dos años van a pasar muchísimas cosas, dos años ahora mismo, tal y como está evolucionando la tecnología de rápido, es muchísimo tiempo”.
Por ello, es “muy probable que, cuando está regulación de alto riesgo entre en vigor, ya esté obsoleta y haya surgido nuevos casos que hayan dejado atrasada las medidas que hay que tomar para prevenir el posible riesgo sobre los derechos fundamentales, estoy segura de ello”. Para Salazar este es uno de los grandes problemas. No obstante, si las empresas comienzan a poner en marcha las medidas éticas, independientemente, “por política, por gobernanza, y son conscientes de esa necesidad, yo creo que habrá menos problemas de que pueda surgir un problema en los próximos años al respecto. Hay que empezar a hacerlo bien desde el principio para evitar problemas futuros”, concluye.
Fuentes
Nota de prensa del Parlamento Europeo
Declaraciones de Idoia Salazar, profesora de Comunicación en la Universidad CEU San Pablo y experta del Observatorio de IA del Parlamento Europeo (EPAIO), especialista en ética e inteligencia artificial, cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) e investigadora principal en el grupo SIMPAIR (Social Impact of Artificial Intelligence and Robotics)