14/11/2025

Más de un millón de personas usa chatbots para hablar de sus emociones: los riesgos de reemplazar la escucha humana

En diálogo con Viví el Oeste diario, la psicóloga, Daniela Gasparini, analizó el fenómeno y advirtió sobre los riesgos de reemplazar el vínculo humano.

Un reciente informe de OpenAI reveló que más de un millón de personas en todo el mundo utilizan chatbots de inteligencia artificial (IA) para conversar sobre cuestiones emocionales. Según el estudio, cada semana, cerca de 800 millones de usuarios interactúan con herramientas como ChatGPT, y una parte significativa lo hace para hablar sobre ansiedad, tristeza o angustia.

Esta cifra encendió la alarma en el ámbito de la salud mental, y para comprender este fenómeno, Viví el Oeste diario dialogó con Daniela Gasparini, psicóloga, quien analizó por qué tantas personas, especialmente jóvenes, eligen hablar con una inteligencia artificial antes que con un profesional o un amigo sobre "su malestar emocional".

Daniela Gasparini, psicóloga, analizó el fenómeno y advirtió sobre los riesgos de reemplazar el vínculo humano.

 

La mirada de la profesional en salud mental frente a este panorama

La psicóloga indicó que si bien la IA viene desarrollándose hace varias décadas, "ha tenido un boom en su desarrollo en la última década y especialmente durante y postpandemia", y que actualmente la comunidad vive con mucha "ansiedad, y la necesidad de la resolución inmediata".

En la misma línea, sostuvo que "esto genera más conexión digital y menos conexión humana, y hay un aumento en la dependencia, sobre todo en los más jóvenes, a las tecnologías digitales. Esto genera una baja tolerancia a la frustración".

A esto se le suma la crisis económica, y en este contexto, los chatbots aparecen como un recurso accesible que "en el último tiempo se ha desarrollado y programado para simular cualquier conversación humana, no solamente resolver problemas inmediatos", y "tiene mucha accesibilidad podes entrar 24/7".

"Muchos jóvenes sienten que los entiende, que los contiene, y ese es un riesgo enorme, porque un robot no puede empatizar, no puede sentir", remarcó Daniela. El informe de OpenAI, además, reveló que más de un millón de usuarios mantiene conversaciones que incluyen señales de riesgo para la salud mental, como ideas autodestructivas o pensamientos suicidas.

"Ahí está lo más preocupante: la inteligencia artificial no sabe quién está del otro lado, ni cuál es su historia ni sus emociones profundas. Puede responder con amabilidad, pero no con empatía. Y hay casos de personas que interpretaron mal una respuesta automática y se hicieron daño", enfatizó la psicóloga. 

¿Puede la IA brindar contención emocional?

Para la psicóloga, hablar con una IA puede brindar un alivio momentáneo, pero no una verdadera contención: "Es un parche, una curita. Puede calmar por un rato, porque te valida o te dice lo que querés escuchar, pero no te ayuda a elaborar lo que te pasa. La cura o el bienestar se logran con tiempo, con escucha y con acompañamiento profesional".

Además, subrayó que una conversación con una inteligencia artificial no reemplaza el vínculo humano: "Un terapeuta escucha silencios, tonos de voz, miradas, gestos, contradicciones. Todo eso forma parte del proceso terapéutico. La máquina puede recibir un texto, pero no entiende el dolor que hay detrás".

El futuro de la salud mental frente a la inteligencia artificial

Daniela no se mostró en contra del uso de estas herramientas, pero planteó la necesidad urgente de regulaciones y de un uso responsable: "La inteligencia artificial podría ser muy útil para fortalecer los sistemas de salud mental, por ejemplo, para agilizar turnos, derivar casos o identificar emergencias. Pero siempre debe funcionar como una herramienta complementaria al trabajo humano, no como reemplazo".

Finalmente, la psicóloga advirtió que el fenómeno también refleja una crisis más profunda de vínculos y soledad: "Cuanta más conexión digital, menos conexión humana. Muchas personas se sienten solas, y la IA viene a llenar vacíos afectivos. Pero eso también puede abrir la puerta a otros riesgos, como relaciones virtuales dependientes o la exposición a contenidos inapropiados. Necesitamos volver a priorizar el contacto humano".

Si estás atravesando una situación de angustia o crisis emocional, podés comunicarte de forma gratuita las 24 horas al Centro de Asistencia al Suicida (135) desde CABA y GBA, o al (011) 5275-1135 o 0800 345 1435 desde todo el país.