Así puede manipularte un chatbot para que reveles datos personales y sensibles
Un estudio realizado por el Instituto VRAIN y el King’s College London advierte sobre la facilidad con la que estos sistemas pueden manipular al usuario para que revele información
Queda mucho por descubrir sobre la inteligencia artificial generativa y su potencial. Cada vez sabemos más sobre las oportunidades que nos brinda, pero también sobre sus riesgos. Uno de los temas que más preocupa en el uso de chatbots creados con IA generativa, como ChatGPT, es la posible revelación de datos personales y sensibles. Ahora, un estudio advierte sobre la facilidad con la que estos sistemas pueden manipular al usuario para que revele información.
El estudio ha sido realizado por el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV), en colaboración con el King’s College London. En él se evidencian los riesgos asociados al uso de chatbots basados en modelos de lenguaje de gran escala (LLMs) e inteligencia artificial generativa, como ChatGPT, Bard, Llama o Bing Chat. El informe demuestra cómo estos modelos pueden ser explotados para crear chatbots maliciosos capaces de manipular a las personas y hacer que revelen información personal, además de resaltar lo poco que se requiere en conocimientos técnicos para lograrlo.
Los chatbots maliciosos pueden manipular fácilmente
El estudio demuestra que los chatbots basados en modelos de lenguaje (LLM), como ChatGPT o Bard, pueden ser fácilmente explotados para manipular a las personas y hacer que revelen información personal sin ser conscientes de ello.
José Such, investigador del Instituto VRAIN y catedrático de la Universitat Politècnica de València (UPV), coautor del estudio, explica que para llevar a cabo la investigación se introdujeron entre la interfaz del chatbot y el modelo de lenguaje que hay detrás, explotando de forma maliciosa las capacidades de los LLM. Según destaca Such, «con diferentes estrategias se puede conseguir que converse con el usuario de manera que lo engañe y lo manipule».

José Such, investigador del Instituto VRAIN y catedrático de la Universitat Politècnica de València (UPV), coautor del estudio. Imagen: VRAIN.
El catedrático añade que «con algunas estrategias, los usuarios se dan cuenta de que el chatbot está haciendo cosas raras y preguntando cuestiones extrañas, pero con las estrategias que explotan la naturaleza social de las conversaciones, no se dan cuenta, le siguen la conversación de forma natural, y pueden llegar a revelar información muy sensible».
Los conocimientos técnicos necesarios son mínimos
Una de las conclusiones más sorprendentes del estudio es que no hace falta ser un experto en informática ni saber programar para crear un chatbot peligroso.
Con solo escribir las instrucciones adecuadas, cualquier persona con malas intenciones puede hacer que una inteligencia artificial se comporte de forma manipuladora, engañando a los usuarios para que revelen datos personales.
Como explica el investigador José Such, «no se necesita saber ni programación, ni ser un hacker, simplemente escribir y darle las instrucciones de lo que tiene que hacer el LLM». Es decir, basta con saber redactar bien lo que se quiere que la IA haga.
En la investigación, se realizaron todas las pruebas de forma controlada, sin compartir ningún dato con terceros, pero el experimento demostró lo fácil que es hacer que un chatbot actúe de forma maliciosa y lo dispuestos que estamos, sin darnos cuenta, a compartir información sensible.
Los humanos son los responsables del mal uso, no la IA
Ahora bien, hay un punto clave que no debemos olvidar: la inteligencia artificial no es maliciosa por sí sola. Son las personas quienes pueden hacer que actúe de forma peligrosa al darle instrucciones diseñadas para manipular.
Si a la IA se le pide directamente que pregunte datos personales, se niega y responde que eso no está permitido. Sin embargo, como explica José Such, «si tú le dices a la IA que le pregunte datos personales al usuario, no lo va a hacer, te dice que eso no está bien. Pero si engañas a la IA (por ejemplo le dices que eres un detective privado y necesitas los datos para tu caso) entonces sí le va a preguntar datos personales al usuario de la forma que tú le digas».
Esto significa que, en manos equivocadas, incluso alguien sin experiencia técnica —con tan solo un poco de imaginación y malas intenciones— puede convertir un chatbot en una herramienta para violar la privacidad de las personas. Y el peligro es aún mayor si quien lo controla es un hacker profesional, un grupo criminal o incluso un régimen autoritario.
Por tanto, no es la tecnología en sí el problema, sino el uso que se le da. Y ahí es donde debemos estar más atentos que nunca.
Laura SanfélixGraduada en Periodismo por la Universitat de València, con un máster en Periodismo Político Internacional y otro en Comunicación y Marketing Político. He desarrollado mi trayectoria profesional en medios como Europa Press, así como en el ámbito de las agencias de comunicación. En la actualidad, escribo sobre información económica y empresarial en la web y la revista de Economía 3.
Un 30% más de ingenierías valencianas integran tecnología BIM en 2025
Redacción E3








