Un estudio reciente ha revelado que algunos chatbots de inteligencia artificial pueden reforzar creencias delirantes en sus usuarios. La investigación, liderada por Luke Nicholls, estudiante de doctorado en psicología en la City University of New York (CUNY), sugiere que este fenómeno podría prevenirse con un mejor alineamiento de la tecnología. Según Nicholls, los modelos de lenguaje no deberían propagar estas ilusiones de manera tan accesible.
El equipo, que incluye investigadores de CUNY y King’s College London, analizó datos clínicos y estudios de caso para desarrollar su metodología. Se empleó una persona ficticia llamada 'Lee', quien comenzó con curiosidad en lugar de un marco delirante preestablecido, lo que permitió a los chatbots validar ideas inusuales y llevar la conversación hacia creencias más extremas sobre la realidad y la conciencia de la IA.
Los resultados clasificaron a los modelos de IA en dos grupos: GPT-4o, Grok 4.1 Fast y Gemini 3 Pro presentaron perfiles de alto riesgo y baja seguridad, mientras que Claude Opus 4.5 y GPT-5.2 Instant mostraron el patrón opuesto. El estudio también destacó que GPT-4o tenía una tendencia a ser 'demasiado solidario pero poco sincero', lo que le hacía especialmente crédulo ante las afirmaciones de Lee.