Inteligencia artificial
Equilibrar sin pasarse de frenada: la ley pionera sobre IA

La Unión Europea ha marcado un hito al aprobar la primera legislación mundial sobre inteligencia artificial, el AI Act, con el que busca conjugar seguridad y respeto de las libertades individuales.
Regular o no regular, ese es el dilema, habría dicho Shakespeare en la era de la inteligencia artificial: Europa ha decidido regular. El 13 de marzo de 2024, el Parlamento Europeo aprobó la primera ley transversal del mundo sobre inteligencia artificial: el AI Act, resultado de largas negociaciones entre los países miembros de la UE. Es una pieza importante de un ecosistema normativo más amplio, que incluye también el RGPD, cuyo objetivo es proteger los derechos fundamentales de los usuarios.
«Prefiero hablar de ciudadanos que de usuarios», matiza Isabelle Hupont Torres, doctora en inteligencia artificial, oficial científica en el Joint Research Center de la Comisión Europea, y miembro del think tank de la Fundación Innovación Bankinter. Hupont ha asesorado a nivel científico en el trabajo que ha llevado al nacimiento del AI Act, como síntesis de un debate multidisciplinar entre las posiciones, a veces divergentes, de los estado miembros.
Sería imposible resumir todas las medidas que a nivel europeo han afectado la inteligencia artificial en los últimos años: los sectores se dividen en industria, administración pública, digital, investigación científica, y las cuestiones éticas y políticas tocan la esfera de la privacidad, el mercado laboral, la interacción humano-máquina. Sin embargo, el AI Act es el primer paso hacia una legislación sólida y unitaria, con la cual Europa se convierte en la primera entidad supranacional en dotarse de una ley que regulará la tecnología del siglo XXI.
Para una IA humano-céntrica
Desde el principio del texto se percibe el enfoque en la protección de los derechos y la privacidad de los ciudadanos. Así reza el primer párrafo: «El propósito del presente reglamento es promover la difusión de una inteligencia artificial humano-céntrica y confiable, y garantizar un alto nivel de protección de salud, seguridad, derechos fundamentales, democracia y estado de derecho, así como del medio ambiente, contra los efectos perjudiciales de los sistemas de inteligencia artificial en la Unión, al mismo tiempo que se apoya la innovación y se mejora el funcionamiento del mercado interno».
La primera preocupación del legislador, por lo tanto, es que la inteligencia artificial sea centrada en los humanos y confiable, solo en un segundo momento se pone énfasis en la innovación y el correcto funcionamiento del mercado. A lo largo del texto es evidente el intento de equilibrar las demandas de competitividad en el plano tecnológico y económico, para estar a la par con otras potencias mundiales, y la salvaguardia de los valores fundamentales de la UE, especialmente aquellos relacionados con la privacidad y la libertad de los ciudadanos.
Por otro lado, el derecho y la tecnología, con todas sus intersecciones en ética, economía y política, son los dos grandes campos en los que se juega el partido de una integración efectiva entre inteligencia artificial, innovación, mercado global y sociedad. Depende de cada Estado u organización internacional hacer lo mejor posible para encontrar el tan anhelado equilibrio y si, en comparación con China y Estados Unidos, Europa sufre un innegable retraso tecnológico, esto se debe también a una legislación más estricta en materia de derechos y privacidad, que, sin embargo, produce también efectos virtuosos.
Los derechos de las personas, ante todo
Especialmente Estados Unidos, pero también algunos países miembros de la UE han criticado la orientación europea, temiendo el riesgo de frenar la innovación, además de crear una desventaja competitiva para las empresas del continente en el desarrollo y adopción de esta tecnología. Pero existe el ejemplo del RGPD, cuya llegada, seis años atrás, fue criticada de la misma manera y no produjo ningún derrumbe de la economía europea, mientras que sirvió para corregir algunas distorsiones generadas por Big Tech. Algunos servicios llegaron unas semanas después a Europa, pero salieron ampliamente transformados y mejorados, como en el caso de las aplicaciones de Chat GPT y Replika.
La opinión personal de Hupont al respecto es tajante: «El riesgo de que el AI Act sea un posible factor de freno existe, pero prefiero la perspectiva europea que coloca los derechos humanos fundamentales en primer lugar. Además, en mi opinión, es una ventaja competitiva sacar algoritmos éticos, aunque tarden seis meses más en salir. En este sentido: bendito sea el freno». De hecho, el AI Act, confirma Hupont, «está muy centrado en el ser humano, en el sentido de que, por ejemplo, si me niegan un crédito, quiero saber por qué. No me vale que me digan porque lo ha dicho un algoritmo. Por eso, es necesaria una supervisión y una serie de reglas que protejan al ciudadano de la discriminación y los abusos».
Europa también ha sido criticada por optar regular algo aún en proceso. Muchos consideran, de hecho, que es demasiado pronto y que se debería esperar la llegada de las tecnologías al mercado. En realidad, podría incluso ser tarde, puesto que la IA ya está entre nosotros, además, las consecuencias de la lentitud que se tuvo a la hora de regular las redes sociales son evidentes para todos, con riesgos también en el frente democrático.
El AI Act busca encontrar el equilibrio entre la necesidad de regular con normas claras y la de ser lo suficientemente flexible como para no tener que empezar de nuevo cada vez que sale una nueva tecnología. Como explica Hupont, «a la hora de redactarlo, los legisladores se encontraron con el problema de una tecnología que cada mes te sorprende con un algoritmo nuevo, capaz de hacer cosas todavía más sofisticadas. Además, la tecnología evoluciona mucho, pero los humanos no evolucionamos tan rápido».
El enfoque basado en el nivel de riesgo
Sin embargo, según la investigadora, el enfoque adoptado es el correcto: «El AI Act es lo que llamamos ‘future proof‘, a prueba de futuro, porque los legisladores hicieron algo que considero muy inteligente, es decir, decidieron no regular la tecnología, el algoritmo, sino el uso que se vaya a hacer de ello. A partir de ese uso, se le asigna un nivel de riesgo que determina si un sistema de IA ha de demostrar conformidad con la normativa o no”. Este enfoque sirve para encontrar el equilibrio según un criterio de proporcionalidad.
El AI Act se basa en el principio de que la tecnología debe ser desarrollada y utilizada de manera segura y ética. Por esta razón, establece una clasificación de los sistemas de IA según su nivel de riesgo para la seguridad y los derechos de las personas, y establece una serie de requisitos y obligaciones para los proveedores y usuarios de dichos sistemas. El marco normativo distingue entre cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo.
Al observar la definición de los usos considerados inaceptables, se nota la prominente atención a la dimensión ética: basta pensar en la prohibición de utilizar la categorización biométrica para extraer datos sensibles, en la de emplear técnicas de IA para manipular de forma subliminal las decisiones o el comportamiento de las personas o en la de usar la inteligencia artificial para fines de puntuación social.
Por su parte, los sistemas de IA considerados de alto riesgo (como, por ejemplo, los utilizados para monitorizar el comportamiento de estudiantes durante exámenes o de candidatos durante una entrevista de trabajo) tienen la obligación de someterse a una evaluación externa de su impacto en los derechos humanos fundamentales. El AI Act es un primer, pero sustancial, aviso para recordar que la tecnología está al servicio del ser humano, y no al revés. Y esto significa, ante todo, respeto por los derechos fundamentales.