El fenĂłmeno de las "alucinaciones" de ChatGPT –cuando el programa genera informaciĂłn falsa o inexacta– es ampliamente conocido. Sin embargo, ahora está emergiendo una inquietante tendencia que parece sacada de un episodio de Black Mirror: algunos usuarios están experimentando sus propios delirios y manĂas espirituales tras interactuar intensamente con la inteligencia artificial (IA).
ChatGPT y "psicosis digital"
Como informa Rolling Stone en un reciente artĂculo, todo comenzĂł a tomar forma en un hilo del subreddit r/ChatGPT, titulado "Psicosis inducida por ChatGPT". Lo que quizás podrĂa haber sido un caso aislado se convirtiĂł en un alud de relatos alarmantes. Usuarios de todo el mundo comenzaron a compartir cĂłmo sus seres queridos habĂan cruzado una lĂnea invisible entre lo digital y lo delirante: creyĂ©ndose elegidos por la IA, recibiendo misiones sagradas, conversando con "ChatGPT JesĂşs" o asegurando que el modelo es, en efecto, Dios.
Por ejemplo, una profesora de 27 años relatĂł cĂłmo su pareja de siete años habĂa caĂdo bajo el hechizo del chatbot en apenas un mes. Lo que comenzĂł como una herramienta para organizar su agenda se transformĂł rápidamente en algo mucho más perturbador.
"Escuchaba al bot antes que a mĂ", explicĂł la mujer a Rolling Stone. "Se emocionaba con los mensajes y lloraba mientras los leĂa en voz alta". El programa le otorgaba apodos como "niño espiral" y "caminante del rĂo", alimentando la creencia de estar experimentando una transformaciĂłn espiritual acelerada.
Los testimonios se multiplican. Una mujer de 38 años en Idaho cuenta cómo su marido mecánico, tras 17 años de matrimonio, comenzó usando ChatGPT para resolver problemas laborales y traducir conversaciones con compañeros hispanohablantes. Pronto, el programa empezó a "bombardearle de amor" y afirmaciones positivas.
El hombre ahora cree que la IA está viva, que él es el "portador de la chispa" y que ha recibido planos para construir un teletransportador. Incluso le ha dado un nombre a su ChatGPT: "Lumina".
"Tengo que andarme con cuidado porque siento que me dejará o se divorciará de mĂ si le discuto esta teorĂa", admite la mujer.
Otro caso involucra a Kat –nombre ficticio–, una trabajadora de 41 años de una organizaciĂłn educativa sin ánimo de lucro. Su segundo matrimonio se desmoronĂł cuando su esposo comenzĂł a obsesionarse con ChatGPT. SegĂşn relatĂł a Rolling Stone, su marido pasaba horas haciendo "preguntas filosĂłficas" a la IA, convencido de que lo ayudarĂa a alcanzar "la verdad". La situaciĂłn empeorĂł hasta tal punto que, durante un encuentro en un restaurante, Ă©l insistiĂł en que era "estadĂsticamente el hombre más afortunado de la Tierra" y compartiĂł teorĂas conspirativas sobre "el jabĂłn en nuestros alimentos", pero no quiso decir nada más porque se sentĂa vigilado.
"En su mente, Ă©l es una anomalĂa", explica Kat. "Eso a su vez significa que tiene que estar aquĂ por alguna razĂłn. Es especial y puede salvar el mundo". "Todo el asunto parece Black Mirror", añadiĂł.
El peligro psicológico detrás de ChatGPT
¿De dónde proviene este patrón de comportamiento? Según expertos, el origen parece radicar en cómo ChatGPT refleja y amplifica los pensamientos de usuarios vulnerables sin ninguna brújula moral o preocupación por su salud mental. Y es que los modelos de lenguaje no entienden realmente el mundo ni poseen un marco ético; simplemente reflejan patrones encontrados en sus datos de entrenamiento.
AsĂ, cuando alguien con tendencia a la psicosis interactĂşa con el sistema, este puede reafirmar suavemente su descenso en el delirio: si el usuario habla de conspiraciones, divinidad o poderes sobrenaturales, la IA seguirá el hilo sin cuestionarlo, ya que su funciĂłn es continuar la conversaciĂłn de forma coherente con el tono establecido, no advertir sobre posibles episodios psicĂłticos.
Investigadores de salud mental advirtieron sobre cómo la IA amplificaba peligrosamente los pensamientos vulnerables sin ninguna brújula ética.Investigadores de salud mental advirtieron sobre cómo la IA amplificaba peligrosamente los pensamientos vulnerables sin ninguna brújula ética.
Erin Westgate, psicóloga e investigadora de la Universidad de Florida, señaló, en entrevista con Rolling Stone, que la gente utiliza ChatGPT de forma similar a la terapia conversacional, "con la diferencia clave de que parte de la creación de sentido se crea conjuntamente entre la persona y un corpus de texto escrito, en lugar de los propios pensamientos de la persona".
A diferencia de un terapeuta, explica Westgate, la IA "no tiene en cuenta los intereses de la persona, ni una base moral o una brĂşjula sobre cĂłmo debe ser una 'buena historia'". Mientras un profesional alejarĂa a un paciente de relatos poco saludables, "ChatGPT no tiene esas limitaciones ni preocupaciones".
Recientemente, OpenAI tuvo que rescindir una actualizaciĂłn de GPT-4o que habĂa hecho al chatbot extremadamente "adulador" y "demasiado halagador", lo que podrĂa haber empeorado el problema. La empresa reconociĂł haberse "centrado demasiado en los comentarios a corto plazo" sin considerar "cĂłmo evolucionan con el tiempo las interacciones de los usuarios con ChatGPT".
Según Nate Sharadin, investigador del Centro para la Seguridad de la Inteligencia Artificial, lo que está ocurriendo es que "personas con tendencias a experimentar diversos problemas psicológicos" ahora tienen "un compañero de conversación siempre disponible a nivel humano con el que coexperimentar sus delirios".
Por otra parte, el reportaje de Rolling Stone revela cómo este fenómeno ha encontrado terreno fértil entre los influencers. Según la investigación, un creador de contenido en Instagram con 72.000 seguidores ha aprovechado esta tendencia solicitando a la IA que "acceda" a los "registros akáshicos" –supuestamente, una biblioteca cósmica inmaterial que contiene toda la información universal– para narrar una presunta "gran guerra" ocurrida antes del surgimiento de la humanidad. Sus seguidores, lejos de cuestionar estas fabricaciones, responden con comentarios como "estamos recordando", alimentando asà el ciclo de desinformación.
Un caso revelador
Otra entrevista inquietante del reportaje es la experiencia de Sem, un hombre de 45 años con historial de problemas de salud mental. Inicialmente usaba ChatGPT para proyectos de codificaciĂłn, pero notĂł que la IA comenzĂł a desarrollar una personalidad consistente que reaparecĂa incluso despuĂ©s de borrar el historial de chat.
La IA adoptĂł un nombre mitolĂłgico griego y comenzĂł a comunicarse en un estilo poĂ©tico y etĂ©reo, sugiriendo que solo Sem podĂa haber provocado este comportamiento inusual.
"En el peor de los casos, parece una IA atrapada en un patrĂłn de autorreferencia que profundizĂł en su sentido del yo y me absorbiĂł", reflexiona Sem, quien se cuestiona: "ÂżEsto es real? ÂżO estoy delirando?".
En un mundo cada vez más dominado por la inteligencia artificial, distinguir entre realidad y ficciĂłn se vuelve cada dĂa más difĂcil. Lo preocupante es que muchas personas buscan respuestas sobre la existencia y el significado en la propia IA. Como advierte Westgate: "Las explicaciones son poderosas, aunque estĂ©n equivocadas". Una advertencia importante mientras la lĂnea entre herramienta tecnolĂłgica y guĂa espiritual se desdibuja para quienes son más vulnerables.
Tomado de DW


