La tecnológica estadounidense Meta -antigua Facebook– ha anunciado la puesta en pausa del «entrenamiento» de su inteligencia artificial (Meta IA) con datos de sus usuarios en Europa tras una solicitud del regulador de la privacidad de Irlanda (DPC), donde la empresa tiene su centro de operaciones internacionales.
Meta tenía previsto ampliar su IA a Europa el 26 de junio, pero el pasado lunes la firma explicó que debía entrenarla en sus idiosincrasias siguiendo «el ejemplo» de Google y OpenAI, para lo que estaba enviando notificaciones de sus usuarios sobre los planes y dando la posibilidad de «objetar» a quienes prefirieran ser excluidos.
Sin embargo, la presión ejercida por el Centro Europeo de Derechos Digitales –NOYB por sus siglas en inglés-, que interpuesto demandas has en once reguladores europeos, ha terminado por dar al traste con los planes de la tecnológica.
La compañía que dirige Mark Zuckerberg, expresó este lunes en un comunicado su «decepción» por el paso dado por la DPC, señalando que ya había incorporado las exigencias de los reguladores y que las autoridades de protección de datos estaban avisadas «desde marzo», y reivindicándose como «más transparente» que sus rivales del sector.
Un precedente para la privacidad europea
Según explica Pablo Haya, investigador y director del Business and Language Analytics (BLA), el Instituto de Ingeniería del Conocimiento, la decisión de Meta de entrenar su IA con información de sus usuarios estuvo rodeada de polémica desde el principio.
«Meta validó el uso de estos datos mediante una de las clausulas del Reglamento General de Protección de Datos centrada en el denominado «interés legítimo». Esto se tradujo en que, en vez de hacer una petición de conocimiento informado y preguntar a los usuarios si deseaban que sus datos fuesen utilizados, lo que hizo la compañía quería hacer era utilizarlos ofreciendo la posibilidad de rechazar que fuesen utilizados con posterioridad. El interés legítimo es algo nebuloso que debería utilizarse de manera excepcional», explica el investigador.
Por el momento solo cabe esperar. Mientras los planes de Meta permanecen en pausa, la empresa asegura que colaborará con la DPC y abordará «solicitudes específicas» que ha recibido de la Oficina del Comisario de Información de Reino Unido «antes de empezar los entrenamientos».
Sin embargo, avisa la tecnológica, la decisión del regulador supone «que no podemos lanzar Meta IA en Europa de momento». La DPC ya impuso el año pasado a Meta una multa récord de 1.300 millones de dólares (1.215 millones de euros) por violar sus reglas de privacidad.
¿Poner límites a la IA?
En comparación con Estados Unidos y China, los dos grandes polos de desarrollo de la IA, Europa se encuentra a la zaga de la creación tecnológica. Sin embargo, explica Haya, no deja de ser un mercado de 400 millones de usuarios que las tecnológicas no pueden ignorar. «El nuevo reglamento de protección de datos ha forzado a las tecnológicas norteamericanas a ceder en diferentes aspectos, adaptándose a la regulación», explica el experto.
«No obstante, la nueva regulación está todavía en pañales y tiene todavía dos años por delante para ponerse en marcha. Podemos esperar ver muchos más casos de choque entre las autoridades y las multinacionales para hallar un punto de equilibrio. Se ha establecido el marco, pero hasta que no surgen los conflictos no se sabe qué clase de medidas concretas son necesarias», asegura Haya.
Si bien desde el punto de vista del desarrollo tecnológico Europa está mal posicionada, sí cuenta con cierta capacidad de actuación a la hora de regular el uso de la IA dentro del territorio europeo. Decisiones como la multa récord a Meta o la prohibición del uso de ChatGPT en Italia, sientan un precedente que marca el camino a las tecnológicas que quieran operar en Europa.
Cumplir el reglamento, ¿al alcance de todos?
Pese a los contratiempos, el futuro de la IA, asegura el director del ICC, es prometedor. «Se están produciendo toda una serie de aplicaciones y funcionalidades que han pasado a utilizarse de forma intensiva. No sólo eso, sino que se ha conseguido algo que hasta ahora no había sido posible: lograr que este tipo de tecnología permee a todo el mundo. Además, el trabajo de los reguladores permite tener confianza en que no se van a cometer tropelías con nuestros datos».
Sin embargo, más allá de las garantías que para los usuarios ofrece la regulación europea, existen ciertas cuestiones por dilucidar. Una de ellas es hasta qué punto la rigidez de la norma supone un problema para aquellas empresas pequeñas que no cuentan con los recursos de las grandes tecnológicas para adaptarse al mercado europeo.
«Esperemos que este reglamento no sea una cortapisa para la innovación de las startups europeas. Corremos el riesgo de acabar con la poca innovación que se está llevando a cabo, si hacemos que el cumplir la normativa esté fuera del alcance de la pequeña y mediana empresa. Esto redundaría en la creación de una especie de oligopolio tecnológico», concluye Pablo Haya.