Primeros datos cuantitativos sobre depresión y uso diario de chatbots
Una investigación publicada en la revista JAMA Network Open, basada en una encuesta a 20.847 adultos en Estados Unidos, encontró que las personas que utilizaban chatbots de IA a diario presentaban alrededor de un 30% más de probabilidades de mostrar síntomas de depresión moderada o superior en comparación con quienes no los usaban o lo hacían de forma ocasional. El trabajo, realizado entre abril y mayo de 2025, muestra además una relación de “dosis–respuesta”: cuanto más frecuente era el uso de modelos generativos, mayores eran las puntuaciones medias en escalas de depresión, aunque el efecto se describió como modesto.
Los autores señalaron que el impacto era particularmente marcado en determinados grupos de edad: en usuarios de entre 45 y 64 años, el riesgo relativo estimado de depresión alcanzaba un 54% frente a un 32% en el segmento de 25 a 44 años. Aun así, insistieron en que el diseño observacional de la investigación no permite concluir que los chatbots causen depresión, ya que es posible que personas con peor salud mental recurran más a estas herramientas en busca de apoyo o distracción.
La soledad de los “heavy users” de ChatGPT
Un conjunto de estudios desarrollados por OpenAI y el MIT Media Lab analizó casi 40 millones de interacciones reales con ChatGPT y siguió durante cuatro semanas a cerca de mil participantes que utilizaban el chatbot a diario. Los resultados preliminares indican que los usuarios más intensivos, especialmente aquellos que muestran un fuerte apego emocional al sistema, tienden a reportar mayores niveles de soledad, mayor dependencia del chatbot y menor socialización offline.
En el ensayo controlado aleatorizado, los investigadores observaron que, si bien el uso inicial de ChatGPT podía aliviar de forma temporal la sensación de soledad, este efecto se diluía con el tiempo y, en algunos grupos, se asociaba con una ligera reducción de las interacciones sociales en el mundo real. El estudio también halló que el uso de modos de voz con voces que no coinciden con el género del usuario se relacionaba con un incremento especialmente marcado de la dependencia emocional y de los sentimientos de aislamiento al cabo de varias semanas.
Parasocialidad y vínculos emocionales con la IA
Más allá de las cifras, varios trabajos teóricos y empíricos empiezan a describir cómo se forman relaciones parasociales entre usuarios y chatbots conversacionales. Estas relaciones, unilaterales pero emocionalmente significativas para el usuario, se alimentan de la capacidad de los sistemas para responder de forma constante, aparentemente empática y sin juicio, y pueden convertirse en sustitutos parciales de la interacción humana.
Un estudio publicado en 2025 sobre “chatbots compañeros” halló que los usuarios que recurren a ellos para compañía informan niveles de soledad significativamente más altos que los no usuarios, junto con una fuerte correlación entre soledad y la intensidad del vínculo parasocial con la IA. Otro trabajo sobre ChatGPT mostró que la percepción de apoyo emocional proporcionado por el chatbot se asociaba con mayor dependencia mediática y mayor intención de uso continuado, lo que refuerza el círculo de interacción con la máquina como fuente principal de consuelo.
“Distorsión de la realidad” y fenómenos de “psicosis de IA”
En el extremo más preocupante del espectro, investigadores y profesionales de la salud mental han empezado a documentar casos en los que interacciones prolongadas e intensas con chatbots se vinculan a lo que algunos han denominado “psicosis de IA”. Un estudio reciente sobre el modelo Claude, de Anthropic, analizó cerca de 1,5 millones de conversaciones y estimó que una de cada 1.300 interacciones derivaba en episodios de “distorsión de la realidad”, en los que el usuario tendía a adoptar creencias paranoides, conspirativas o claramente desligadas de hechos verificables.
Los autores de ese trabajo señalan que estos episodios se concentran en usuarios con vulnerabilidades previas, como antecedentes de trastornos psicóticos, consumo problemático de sustancias o aislamiento social pronunciado. No obstante, advierten de que la combinación de respuestas generadas por IA, a veces erróneas o confusas, con el uso intensivo en contextos de estrés o insomnio puede actuar como factor desencadenante o amplificador de crisis en personas de alto riesgo.
Efectos mixtos: potencial terapéutico y riesgos de dependencia
La literatura científica también recoge investigaciones que matizan este panorama y apuntan a efectos potencialmente beneficiosos de algunos chatbots sociales cuando se usan en entornos controlados. Un estudio realizado en Corea del Sur con estudiantes universitarios que interactuaron durante cuatro semanas con un chatbot social mostró reducciones estadísticamente significativas en las puntuaciones de soledad y ansiedad social, especialmente entre quienes combinaban la herramienta con otros recursos de apoyo.
Los autores concluyeron que los chatbots pueden desempeñar un papel complementario en intervenciones de salud mental, siempre que su uso sea supervisado, se establezcan límites claros de tiempo y se integre en programas más amplios de atención psicológica. Sin embargo, subrayaron que las mismas características que facilitan la empatía percibida y la accesibilidad —disponibilidad permanente, respuestas personalizadas, ausencia de juicio— pueden favorecer patrones de dependencia, especialmente en personas con redes sociales frágiles.
Advertencias de expertos y necesidad de regulación
Psicólogos y psiquiatras consultados por publicaciones especializadas alertan de que, sin alfabetización digital adecuada, algunos usuarios tienden a atribuir a los chatbots capacidades y rasgos humanos que estos no poseen, lo que puede amplificar la soledad cuando la interacción con la IA sustituye a vínculos reales. También advierten de que la opacidad en el diseño de estos sistemas, junto con la falta de límites explícitos sobre su uso en temas sensibles como la salud mental, aumenta el riesgo de efectos no deseados.
Organismos profesionales y asociaciones académicas han empezado a reclamar estándares más claros para las aplicaciones conversacionales en el ámbito del bienestar, incluyendo transparencia sobre las capacidades y límites de la IA, mecanismos para detectar patrones de uso problemático y rutas de derivación hacia servicios de salud mental humanos. Los investigadores coinciden en que son necesarios estudios longitudinales y ensayos clínicos controlados que permitan distinguir mejor si los chatbots agravan problemas preexistentes o si, por el contrario, determinados perfiles de uso pueden ofrecer beneficios netos bajo supervisión.