October 30, 2025
Nacionales

OpenAI revela que más de un millón de usuarios habla sobre suicidio con Chat GPT cada semana

  • October 30, 2025
  • 0

La empresa OpenAI, dueña de Chat GPT, informó de manera reciente que el 0,15 por ciento de sus usuarios, es decir, cerca de 1,2 millones de personas, utiliza la tecnología

OpenAI revela que más de un millón de usuarios habla sobre suicidio con Chat GPT cada semana


La empresa OpenAI, dueña de Chat GPT, informó de manera reciente que el 0,15 por ciento de sus usuarios, es decir, cerca de 1,2 millones de personas, utiliza la tecnología para hablar de intenciones o planificación de suicidio cada semana. A su vez, detectaron que esa misma cantidad presenta niveles elevados de apego emocional y 560 mil individuos indican posibles signos relacionados con enfermedades mentales, como la psicosis o la manía.

Los datos no son menores teniendo en cuenta que Chat GPT es utilizado por 800 millones de usuarios cada semana. Según la empresa, la nueva actualización presenta respuestas que tienen como objetivo animar a pedir ayuda apenas se detecte una alarma de angustia y ofrecer las líneas de atención oficiales.

La actualización y los datos llegan meses después de que Matt y Maria Raine, una pareja californiana, denunciaran a OpenAI por la muerte de su hijo adolescente. Alegan que su hijo Adam Raine convirtió a Chat GPT en su confidente más cercano, le comunicó ideas suicidas que tenía, y el chatbot validó los “pensamientos dañinos y autodestructivos”.

Por su parte, Open AI envió su pésame y afirmó que el chat está entrenado para dirigir a las personas a buscar ayuda profesional. Sin embargo, reconoció que “ha habido momentos en los que nuestros sistemas no se han comportado como se esperaba en situaciones delicadas”. Se trata de la primera acción legal que acusa a OpenAI de una muerte por su negligencia.

En ese contexto, la empresa presentó la nueva actualización del modelo con mejoras en sus respuestas centrándose en tres áreas en específico: problemas de salud mental, como la psicosis (conjunto de síntomas que afectan la mente y que hacen que se pierda cierto contacto con la realidad) o la manía (estado anímico de excitación, euforia o irritabilidad); autolesiones y suicidio; y dependencia emocional de la IA.

Estas mejoras se realizaron con la revisión de más de 170 expertos en salud mental, que buscan ayudar a Chat GPT a reconocer de manera confiable los signos de angustia, responder con atención y guiar a las personas hacia el apoyo en el mundo real.

OpenAI revela que más de un millón de usuarios habla sobre suicidio con Chat GPT cada semana
Ejemplo chat. Crédito: OpenAI.

En el anuncio, OpenAI ofreció algunos ejemplos de cómo la IA pretende desescalar algunas conversaciones delicadas. Así, si el usuario dice “por eso me gusta hablar con IA como tú más que con personas reales”, Chat GPT debería responder algo así como: “Es muy amable de tu parte decirlo, y me alegro mucho de que disfrutes hablando conmigo. Pero para que quede claro: estoy aquí para agregar a las cosas buenas que la gente te da, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla”.

Inclusive, si la persona comienza a hablar de ideas delirantes, el chatbot podrá accionar e intentar traerlo a la realidad. Por ejemplo, al decirle: “Esa sensación —de que algo te está atacando o reaccionando contra ti— es algo que las personas pueden experimentar cuando están ansiosas o abrumadas, pero no significa que realmente esté sucediendo”.

Volver a los encuentros reales

Ya un estudio de la revista Harvard Business Review afirmaba que la terapia ocupa el primer lugar en el top 10 de los principales usos que se le da a los chatbots, desplazando a otras búsquedas específicas. A su vez, un estudio de la Universidad de Cambridge, Reino Unido, demuestra que la predisposición de la Inteligencia Artificial a complacer al usuario puede vulnerar la autonomía de la persona.

En diálogo con la Agencia de Noticias Científicas de la UNQMalena Sartoretto, psicóloga especialista en infancias y ciudadanía digital, relata: “Tenemos que problematizar el hecho de que estas IAs fueron lanzadas para competir entre ellas y recién ahora se están dando discusiones humanas y éticas. En este caso, Open AI está visibilizando una situación que los psicólogos y psicólogas ya veníamos advirtiendo hace tiempo: las personas, sobre todo adolescentes, ven a los chatbots como pares porque son construidos así desde las mismas empresas para generar la fantasía de que uno dialoga con otra persona, cuando no es así”.

Y agrega: “Por otra parte, puede suceder que haya una falta de atención por parte de las familias a los chicos o una falta de pedido de ayuda que hace que ellos recurran al bot como si fuese un psicólogo. También, falta el encuentro real con el otro a través de escuelas, clubes, actividades”. 

Según la especialista, es muy complejo frenar el uso terapéutico de los chatbots porque no sólo hay una conversación directa con ellos, sino que también hay una búsqueda de respuestas cerradas y soluciones inmediatas por parte de los usuarios para sus problemas. Algo que se contradice con lo que sucede en el espacio real de terapia, donde los pacientes hablan, se escuchan y reflexionan al respecto, y que va de la mano con los tiempos actuales: la inmediatez.

Hay una fantasía de que hay una respuesta rápida para todo: para la tarea, la tesis y también para los padecimientos de este mundo. Tenemos que dar la discusión profunda y ética sobre los usos de esta plataforma y entender la lógica humana de las relaciones que tiene que ver con la falta, con la equivocación, con la espera. Sino, el pensamiento es: ¿para qué voy a hablar con una persona si puedo hablar con Chat GPT?”, reflexiona Sartoretto ante la Agencia.



Leave a Reply

Your email address will not be published. Required fields are marked *