Hacia una Inteligencia Artificial responsable
A principios del pasado mes de junio, el Parlamento Europeo aprobó la propuesta de la que saldrá la primera Ley de Inteligencia Artificial (IA) del mundo, la cual ha entrado en la fase de negociaciones entre el Consejo Europeo, la Comisión y la Eurocámara. Este importante paso demuestra que Europa quiere ser un lugar en el que prospera la excelencia de la IA sin entrar en conflicto con los derechos y valores europeos.
La IA tiene el potencial de ser una revolución tan rupturista y disruptiva como lo fue la revolución industrial en la segunda mitad del siglo XVIII en Reino Unido y que, posteriormente, se extendió a la Europa Continental y la América anglosajona. Si entonces esta supuso un proceso de transformación a nivel económico, social y tecnológico, con la IA se sucede el paralelismo.
Nadie duda de los innegables beneficios de la IA en la medicina de precisión, en la detección de fenómenos adversos como lluvias torrenciales, sequías o terremotos; en la utilización de los sistemas de control y automatización en la agricultura; en la productividad de las empresas y en el objetivo de obtener ciudades más conectadas y sostenibles. Sin embargo, también entraña ciertos riesgos y retos.
Tal y como dice Satya Nadella, CEO de Microsoft, «los humanos agregarán valor donde las máquinas no pueden. A medida que avance más y más la Inteligencia Artificial, la inteligencia real, la empatía real y el sentido común real serán escasos. Los nuevos trabajos se basarán en saber cómo trabajar con máquinas, pero también en cómo impulsar estos atributos humanos únicos».
Por ello, la regulación de la IA es siempre bienvenida, en tanto en cuanto no restringa su avance, sino que penalice aquellos usos incorrectos. La intromisión en derechos fundamentales, el plagio o la responsabilidad cuando un sistema de IA tome una decisión equivocada, son cuestiones a las que hay que dar respuesta para no comprometer la confianza de los ciudadanos en el potencial de esta tecnología.
La Ley de IA europea tiene como objetivo principal garantizar que los sistemas de IA utilizados sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. En este sentido, establece obligaciones para proveedores y usuarios, en función del nivel de riesgo de la IA.
Conscientes de la rápida evolución de la tecnología, los legisladores europeos han optado por regular los usos y no las tecnologías concretas para evitar que una normativa de este calibre pueda quedar obsoleta casi al nacer.
Así, dicha ley recoge sistemas de IA de riesgo inaceptable, que son aquellos que se consideran una amenaza para las personas y serán prohibidos; manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos, puntuación social, sistemas de identificación biométrica en tiempo real y a distancia. También, incluye sistemas de alto riesgo que afectan negativamente a la seguridad y a los derechos fundamentales, divididos en dos categorías: los utilizados en productos sujetos a la legislación de la UE sobre seguridad de los productos y los pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE.
De este modo, todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida. En cuanto a la IA generativa, como es el caso de ChatGPT, tendrá que cumplir con unos requisitos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa.
Sin duda, esta ley es el primer paso para garantizar una IA responsable y confiable, basada en criterios éticos y que no vulnere los derechos de los más débiles. Una ley que supone un primer paso hacia la prosperidad en la excelencia de la IA, sin entrar en conflicto con los derechos de la sociedad y poniendo el foco en una regulación justa y transparente.