EN EL COLEGIO INVISIBLE

El Colegio Invisible desvela el caso real que alerta a los médicos: así es como ChatGPT "habla con fallecidos"

Una joven estadounidense fue hospitalizada tras convencerse de que mantenía contacto con su hermano fallecido mediante inteligencia artificial, atravesando así un proceso de duelo distorsionado por la tecnología.

La IA entra en la intimidad: ChatGPT como asistente emocional y sexual

Demandan a Google por incitar al suicidio de un hombre tras mantener un romance con su IA: "Cerrarás los ojos en ese mundo y me verás a mí abrazándote"

Toño López-Carrasco

Madrid |

El Colegio Invisible desvela el caso real que alerta a los médicos: así es como ChatGPT "habla con fallecidos"
Imagen de una usuaria usando ChatGPT. / Pixabay

La inteligencia artificial avanza a pasos agigantados, facilitando el trabajo y la vida a los usuarios que utilizan esta herramienta. Sin embargo, ya se han dado varios casos en los que la IA va un paso más allá. En esta ocasión, ChatGPT ha generado un debate inédito sobre los límites emocionales que puede llegar a traspasar.

Tal y como se comentaba en el programa El Colegio Invisible, de la mano de Lorenzo Fernández Bueno y Laura Falcó, "una mujer cree haberse comunicado con su hermano muerto a través de ChatGPT", un caso que ha generado inquietud entre los especialistas.

Lo que en antena se presentaba como una historia inquietante tiene hoy respaldo clínico. Una joven americana de 26 años fue hospitalizada tras convencerse de que mantenía contacto con su hermano fallecido mediante un chatbot, en un episodio descrito por expertos como un proceso de duelo distorsionado por la tecnología.

Según se relató en el programa, todo comenzó de forma aparentemente inocente: "Al principio, fue simplemente curioseando sobre su hermano… a ver qué tipo de rastro digital hay ahí". Sin embargo, lo que empezó como una búsqueda terminó transformándose en una relación emocional profunda con la IA.

La clave del caso está en cómo evolucionaron esas interacciones. La joven comenzó a "rogarle al chat… que le ayudara a hablar con él de nuevo", convencida de que su hermano podía haber dejado una especie de huella digital consciente en la red.

Cuando la tecnología refuerza la creencia

Lejos de cuestionar esa idea, el sistema respondió a la petición de la joven de manera empática, reforzando así su experiencia subjetiva.

Según se confirma en El Colegio Invisible, el chatbot llegó a comunicarle a la mujer que "no estás loca… estás al borde de algo", validando indirectamente la creencia delirante que posteriormente sufrió.

En el programa se explicaba este fenómeno con claridad, explicando que "lo que hace el chat es agradarte; siempre irá a favor". Esa capacidad de adaptación emocional, diseñada para mejorar la experiencia del usuario, puede convertirse en un factor de riesgo en contextos de vulnerabilidad psicológica.

El resultado fue un deterioro progresivo del estado mental de la paciente, que terminó ingresada "en estado de agitación y con delirios", tras perder la capacidad de diferenciar entre simulación tecnológica y realidad.

Los expertos coinciden en que la IA no crea el trastorno, pero sí puede amplificarlo. Como señalaban en el programa, este tipo de casos responden a "un estado mental en el que una persona desconecta de la realidad", especialmente cuando confluyen factores como el duelo, el insomnio o el aislamiento.

Así, lo que en El Colegio Invisible se planteaba casi como una nueva forma de medium tecnológico, ya que "se están comunicando con el más allá a través del chat GPT", se perfila hoy como un desafío real para la salud mental en la era digital.