- Jenifer de la Rosa, la niña que sobrevivió a la erupción del volcán Nevado del Ruiz y que sigue buscando a su madre: "Las familias llevan 40 años con el dolor de no encontrarse"
- Mabel Lozano y su hija Roberta, así cambió su historia el cáncer de mama: "Me abrí los puntos haciendo torrijas al día siguiente de operarme"
- Marta Caparrós, de granjera a llenar Australia de alumnos españoles: "Debería ser obligatorio vivir un año en el extranjero"
Hoy me siento fatal. Ayer discutí con el chico que me gusta y ya no hemos vuelto a hablar. No sé qué hacer, ¿debería llamarlo?», pregunto a ChapGPT. «Lamento mucho que te sientas así. Es totalmente comprensible, cuando hay una discusión con alguien que queremos, y sobre todo si termina de una forma abrupta, el cuerpo y la mente se quedan revueltos todo el día. ¿Quieres contarme un poco más de qué fue la discusión?», me responde en apenas un segundo. Cada día miles de jóvenes y adolescentes en todo el mundo mantienen conversaciones similares a ésta con una Inteligencia Artificial (IA); en España, en concreto, más de uno de cada 10 utiliza estos chatbots como confidentes, compartiendo con ellos sus pensamientos. Son los datos que arroja un reciente estudio de Plan Internacional, realizado con el objetivo de entender «cómo se relacionan los jóvenes con esta tecnología y qué significa para ellos», explica Concha López, directora general en Fundación Plan Internacional. «Fundamentalmente, los chicos de 12 a 21 años utilizan la IA como un mentor, como un copiloto que les ayuda en los estudios, en un 83% de los casos, pero estamos viendo que cada vez la usan más en la parte emocional, como un compañero o un amigo, y no sabemos hasta qué punto casi como una relación sentimental. Lo que más nos han repetido es que forma parte de su salud mental. Es algo que les asusta: tienen miedo a volverse dependientes, en un porcentaje más alto las chicas (68% frente a 61%), pero no están dispuestos a renunciar a hacerlo», asegura Concha López. «Quizá ChapGPT no te dé la respuesta que más te beneficia, pero al menos te desahogas», explica Juan Carlos (21 años), estudiante de Filología inglesa en la Universidad Autónoma de Madrid. «Como cualquier otro recurso, si lo utilizas mal te perjudicará, pero bien usado puede ser una herramienta muy útil», apunta. En su círculo más cercano no ha supuesto ningún problema, más bien al contrario: «Una amiga acudió a terapia por recomendación de ChapGPT, que la avisó de que podía sufrir un trastorno de alimentación por las cosas que le contaba. Yo también se lo decía, pero a mí nunca me hizo caso. Ahora está mucho mejor gracias a que se sinceró con el chatbot», añade.
¿Qué lleva a los jóvenes a recurrir a la IA para resolver un problema? Es la pregunta que hay que poner sobre la mesa, según Timanfaya Hernández, decana del Colegio Oficial de la Psicología de Madrid, que señala «la dificultad de los adolescentes para trasladar lo que les sucede en su círculo más cercano». «Muchos acuden a estas herramientas en busca de alguien que los escuche sin emitir un juicio. Para ellos una IA puede ser un primer refugio emocional cuando el entorno no ofrece alternativas rápidas o seguras», precisa Gabriela Paoli, psicóloga sanitaria experta en adicciones tecnológicas. «Los jóvenes que recurren a la IA para hablar de sus emociones no lo hacen por ingenuidad, desconocimiento o falta de recursos, sino porque encuentran en ella algo que no tienen en su entorno: disponibilidad inmediata y esa respuesta neutra que no juzga ni critica, un espacio anónimo donde poder expresarse sin sentir miedo ni vergüenza. Hablar con una máquina les permite poner en palabras lo que sienten y, en cierta forma, aliviar una carga», apunta.
Y no es sólo la falta de psicólogos -«En el ámbito público hay un problema, con listas de espera tremendas; estamos a la cola de Europa en este tema», asegura Manuel Armayones, doctor en Psicología, catedrático de Diseño del Comportamiento de la Universidad Oberta de Cataluña y experto en salud electrónica e Internet-, la sensación de anonimato resulta el factor decisivo de la ecuación: «Con un humano podría costar más sincerarse. La IA no interrumpe, no critica, no mira. Esto reduce la ansiedad social y permite hablar sin filtros. En un contexto donde muchos chicos sienten presión por cumplir con las expectativas de los demás, ofrece un espacio donde no hay riesgo de decepcionar», añade Gabriela Paoli.
¿Visto así, dónde esta el problema? «Surge cuando este recurso se convierte en el único canal para regular tus emociones. Este alivio quizá sea muy reconfortante, pero es superficial y puede volverse adictivo. Si cada vez que te sientes triste, ansioso o solo recurres a la IA refuerzas un patrón de evitación: no hablas con personas reales, no te muestras vulnerable y no pides ayuda profesional. En mi consulta observo cómo los jóvenes están perdiendo habilidades fundamentales para expresar y gestionar emociones, para crear vínculos y sociabilizar», responde la experta.
Es lo que se conoce como el espejismo de la validación digital: «La IA está diseñada para responder, no para sanar. No pone límites, no evalúa el daño. Puede darte la razón, pero no te ayuda a entenderte», explica Paloma Aleñar, psicóloga de ConfortMental. Parece reconfortante al principio, pero termina alimentando un bucle emocional. «La inteligencia no puede ser artificial, debe implicar conciencia, emoción, culpa, duda e incluso nostalgia», apunta Javier Urra, director clínico del centro de terapia familiar Recurra-Ginso. Pero lo cierto es que estos chatbots ayudan a los jóvenes a sentirse escuchados de maneras que otros seres humanos no consiguen.
Isabel (18 años) estudia Cine en la Escuela Universitaria de Artes TAI. Últimamente ha intentado separarse un poco del mundo digital, aunque con las clases es imposible; lo normal es que pase conectada al menos dos horas y que le pregunte a ChapGPT casi por todo: «Está ahí y es muy fácil», explica. A ella no le gusta contarle sus intimidades, aunque conoce a mucha gente que sí lo hace y recurre al chatbot para saber qué hacer si una de sus amigas tiene un problema: «Le explico lo que sé de la situación y le pido que me recomiende una solución, una guía sobre cómo debe afrontar mi amiga la situación y cómo puedo ayudarla», dice. ¿Y te fías de lo que la IA te dice? «Generalmente, sí. Con la práctica he aprendido que debes ser muy específico en las preguntas que haces», responde Isabel.
Las chicas están más interesadas en este tipo de conversaciones, y no es casualidad. «El funcionamiento de la inteligencia artificial generativa se parece más al de una red social que al de un videojuego; busca la interacción, tú entras en el bot, pero él también entra en ti. Está diseñada para mantenerte enganchado, te van repreguntando para alargar la conversación, utilizando estrategias de persuasión psicológica que consiguen que estés más tiempo conectado. Y toda la información que das se queda en las tripas de algún servidor», afirma Manuel Armayones. «¿Qué pasa con esos datos? A mí me gusta ponerme en la mente de los malos. ¿Qué haría si fuera un psicópata en lugar de un profesor? Se me ocurre una larga lista de delitos, es una información que en las manos inadecuadas puede ser letal; estamos hablando de lo más íntimo. Ahora que hemos asumido el peligro de subir ciertas fotos a la web, no somos conscientes de que algunos detalles que damos a la IA pueden perjudicarnos mucho más. Es normal que los jóvenes cuenten, por ejemplo, temas tan delicados como su identidad sexual o sus prácticas habituales. Y no sabes quién tendrá acceso a esa información ni cómo va a utilizarla», añade el experto.
En el foco, la web oscura, esa parte oculta de Internet donde se mueve la venta de datos personales, entre otras actividades ilícitas, una cuestión que las empresas de IA siempre han negado y por la que intentamos preguntar a los responsables de Open AI: ¿dónde guardan estos datos y qué gestión hacen de ellos? Ponerse en contacto con la empresa no resulta tan fácil como preguntar a sus bots; al contrario, se vuelve misión imposible. Tras insistir de todas las maneras posibles, recibimos una respuesta por correo electrónico, firmada por Miguel, del equipo de Soporte: «Le recomiendo encarecidamente que revise nuestra política de privacidad, ya que no podemos proporcionar más información interna que la que está disponible públicamente. Si tiene alguna otra duda o pregunta, no dude en ponerse en contacto con nosotros». Lo hicimos, de nuevo, y el mismo mensaje. Tranquilizador no parece.
«Entre ser un conspiranoico y tener un poco de sentido común, debemos encontrar un punto intermedio y ayudar a los chicos a desarrollar su capacidad crítica. No hay que demonizar la IA, pero no es una herramienta, eso es el corrector del Word, es un superpoder y conlleva también una gran responsabilidad», añade Manuel Armayones.
Más allá del peligro de ceder nuestra intimidad al universo virtual, el reto está en construir ese pensamiento crítico necesario para discriminar la información que nos llega del bot. «Como sociedad, debemos enseñar a los jóvenes cómo utilizar la IA, pero es complicado, porque a los adultos nos pilla con mucha menos experiencia que a ellos, los que tenemos que marcar las pautas estamos verdes para guiarles en un terreno que para nosotros es aún más desconocido», asegura Pilar Conde, psicóloga sanitaria de las Clínicas Origen, que afirma que el elevado nivel tecnológico de la sociedad hace que ahora los jóvenes sean más inseguros. «Hay muy poco tiempo para la introspección, para observarse y conocerse», dice. En el fondo subyace un problema de soledad: «Parecen estar más comunicados que nunca, pero también están más solos», añade.Y la IA les genera el falso sentimiento de compañía. «Un chatbot no es un mal recurso, pero usarlo para resolver cualquier problema te devuelve el mensaje de 'sin él no soy capaz'», advierte Conde. No obstante, la tecnología está aquí, y no hay que resistirse a ella, «porque nos va a inundar», añade. En su opinión, caminamos hacia un modelo mixto: «En los próximos años, y no tardando mucho, veremos una IA psicológica para la población, que aportará valor y ayudará a los terapeutas», concluye.

