El guardián con Inteligencia Artificial que te protegerá en el metaverso
Los estándares tecnológicos avanzan a pasos agigantados. De cara a la próxima década, la previsión de los expertos es que las realidades sociales híbridas, popularmente conocidas como Metaverso, permitan crear una interacción social totalmente nueva.
Es por eso que un equipo de la Universitat Politècnica de València (UPV) perteneciente al Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) está desarrollando un guardián personal virtual con técnicas de Inteligencia Artificial para detectar comportamientos maliciosos y prácticas manipuladoras en entornos de realidades sociales híbridas como el metaverso.
En estas sociedades virtuales, explica Vicent Botti, director de VRAIN, interactuarán tanto humanes como agentes software, indistinguibles unos de otros. Esa nueva realidad híbrida «implicará la coexistencia de entes que sean maliciosos. Estos agentes son difíciles de detectar y pueden crear información a tiempo real que sea errónea y buscan sesgar la información, crear fake news o atentar contra nuestra privacidad».
Un guardián virtual
-¿Cómo funcionaría GuardIA?
Consistirá en un avatar que acompañará al tuyo durante las experiencias en el Metaverso. Las interacciones que se producen en este entorno son comunicaciones a través de la red o comportamientos que observamos en otros avatares. La comunicación siempre es a través de mensajes. Nuestro guardián tiene que captar todo ese flujo de información y procesarla para detectar en dichos actos comunicativos posibles comportamientos amenazantes para nosotros.
Además, igual que pasa con los sistemas de recomendación de publicidad, pueden tener unos comportamientos que busquen controlar nuestras interacciones. El objetivo de nuestro proyecto es garantizar una interacción social más segura en los futuros espacios de la realidad híbrida.
Por ejemplo, si en un momento dado nos llega una noticia de la que dudamos, nos podemos conectar a un portal de verificación de noticias. Si vemos que aparece como falsa, no nos creemos esa información y la rechazamos. El agente hará lo mismo, comprobaría él mismo en la fuente que fuese si te está llegando información falsa. Pero al final la decisión será siempre nuestra en tanto que humanos.
-¿Ese guardián tendría por tanto un avatar?
Puede tenerlo. Es algo que tenemos que decidir. Este es un proyecto heterogéneo en el que participan también psicólogos cognitivos, sociólogos… al final lo que nos representa en esa sociedad virtual es un software.
Nosotros no estamos ahí, nos están representando. Ese mismo software que nos representa puede incorporar este comportamiento y estas funcionalidades de un guardián personal virtual basado en la IA.
Los peligros del metaverso
-¿Ante el avance de las nuevas tecnologías, como por ejemplo el metaverso, se produce también de forma paralela un aumento de los riesgos que corremos?
Siempre que hay más libertad se produce un aumento del riesgo. De la misma forma, no porque haya una representación en un entorno de realidad aumentada, hay más amenazas que aquellas que ya existen en la realidad actual. Lo que es el ataque a la privacidad, la información sesgada o las fake news, ya campan a sus anchas en las redes sociales.
Las técnicas que nosotros desarrollamos son aplicables a otros entornos de interacción, no son útiles solamente en el metaverso. El problema es que el entorno de realidad aumentada hace que se creen unas ciertas peculiaridades en el modo de interacción, que lo hacen un poco más peculiar.
No se produce necesariamente una mayor exposición, a no ser que el avatar que decidas poner sea el de tu propia imagen.
La percepción visual es mucho más inmersiva y no es lo mismo que el cerebro reciba las imágenes así, que que reciba un mensaje que te amenaza. Desde el punto de vista de la información, el peligro se limita únicamente a la falsedad. No tienen tanta capacidad de afectarte y lo importante es aceptar que esa información es falsa y que lo que intentan es influirte o engañarte.
Una ética para el metaverso
-A medida que avanza la tecnología del metaverso, ¿es necesario crear una nueva ética para el metaverso?
Sí, para el metaverso, para la IA, y para la digitalización en general. Se habla mucho de la ética para la IA, pero es algo que debe abarcarlo todo. Debe garantizarse una ética en el uso, porque, al final, todo es tecnología y debemos asegurarnos de que se utilice lo menos negativamente posible. Debemos evitar que tenga un impacto pernicioso en la sociedad.
Los avances tecnológicos que estamos experimentando son exponenciales en todos los aspectos, lo que abre puertas a posibles amenazas en la interacción de la realidad virtual del futuro. Esto puede favorecer innumerables nuevas formas de prácticas maliciosas. Debemos adelantarnos a ellas.
Es cierto que pueden haber efectos secundarios que no somos capaces de prever todavía por el hecho de estar en este mundo. Debemos crear herramientas para evitar que esto ocurra, ya sea con fines comerciales, como maliciosos… Todo esto hace que sea importante que exista algo que nos pueda prevenir, ya sea en el mensaje como en la forma.
En el futuro debemos esperar que hayan bots que empleen inteligencia artificial y que tengan edad, género o una apariencia específica, con la intención de desencadenar emociones en nosotros, de forma que estas emocionen puedan influenciarnos. Esto ya está pasando, nos encontramos en un panorama muy distópico y debemos mitigar el impacto.
De ahí la importancia de ideas como GuardIA, para conseguir que la interacción social del futuro sea más segura y nos gratifique más.
-¿Para cuándo prevéis que esté listo GuardIA?
Estamos muy avanzados, teniendo en cuenta que todavía no llevamos ni un año con el proyecto. Tenemos desarrollados los modelos computacionales del agente GuardIA listos; ahora en lo que estamos trabajando es en la interacción con expertos en comunicación. Buscamos gente con experiencia en la detección de información falsa y grandes bases de datos.
Este año queremos empezar a contar con estos profesionales para poder obtener datos y empezar a entrenar este agente. Así podremos comenzar a testarlo en un entorno controlado.
Queremos además desarrollar nuestras pruebas e implementar nuestros modelos en el metaverso, aunque es complicado. Yo calculo que en un año podremos hacer pruebas en una plataforma de realidad aumentada.
Artículos relacionados
Shintek y Laboratorio Pericial Forense se incorporan al Parque Científico de Alicante
Greene W2H2 continúa transformando residuos de poda en hidrógeno renovable
María Blasco, Premio Rei Jaume I, participa en las Jornadas de Salud de la UPV