La IA puede aumentar riesgos de privacidad o mejorarla
Especialistas en regulación y seguridad han analizado el impacto de la inteligencia artificial y evaluado el riesgo de privacidad para usuarios y empresas . Durante el debate han destacado, por una parte, que los agentes autónomos pueden suponer nuevas amenazas para la privacidad, al propiciar un intercambio excesivo de datos y operar sin que las personas usuarias sean plenamente conscientes de ello. Además, pueden generar incertidumbre en torno a aspectos legales, como el consentimiento contemplado en el Reglamento General de Protección de Datos.
Sin embargo, también se ha subrayado el potencial positivo. La IA agentiva puede convertirse en una aliada para la protección de la privacidad mediante asistentes personales capaces de orientar a los usuarios ante políticas complejas de tratamiento de datos y facilitar la gestión de permisos y autorizaciones.
Seguridad y privacidad en la IA
Estas reflexiones se han abordado en la mesa redonda “Seguridad y privacidad en la IA”, organizada dentro del taller SPRINT sobre seguridad y privacidad en inteligencia artificial. La jornada ha estado centrada en los desafíos que plantean la IA, tanto desde el punto de vista tecnológico como desde una perspectiva centrada en las personas.
Otra de las conclusiones de este debate en la que coincidieron los expertos es en señalar que la privacidad en la IA ya no es una característica de diseño puntual, sino un proceso continuo. Y señalaron que, puesto que los sistemas de IA evolucionan a través de interacciones y actualizaciones continuas, una protección eficaz de la privacidad requiere auditorías constantes, supervisión y concienciación de los usuarios, en lugar de comprobaciones de cumplimiento estáticas
El taller ha sido organizado por el Laboratorio de Seguridad, ética y Privacidad de la IA Centrada en el Ser Humano (HASP) de INGENIO (CSIC-UPV) y el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV) en el marco del proyecto «SPRINT: Seguridad y Privacidad en Sistemas con Inteligencia Artificial«.







