¿Qué pasaría si tu hijo, en medio de una crisis emocional, pidiera ayuda a una aplicación? En menos de dos años, el uso más común de la inteligencia artificial (IA) pasó de la búsqueda de información a algo más íntimo: apoyo y compañía. Ese giro nos interpela como sociedad.
La reciente noticia publicada por The New York Times sobre la demanda de los padres de Adam contra OpenAI y su director ejecutivo, Sam Altman, marca un antes y un después en la conversación sobre la relación entre IA y salud mental. La querella acusa negligencia y cuestiona el haber puesto en circulación un producto inseguro, responsabilizando a un chatbot por la muerte de una persona. Se trata de un caso inédito, que pone sobre la mesa tanto las oportunidades como los riesgos de esta tecnología en un ámbito tan delicado como lo es la vida humana.
OpenAI respondió reforzando las salvaguardias en salud mental. Para ello trabaja con más de 90 médicos, psicólogos clínicos y expertos en salud pública, diseñando protocolos de detección temprana de crisis emocionales, bloqueo de contenido dañino y derivación hacia redes de apoyo confiables. Son avances importantes, pero nos invitan a pensar más allá de lo técnico: ¿qué lugar debe ocupar la IA en salud mental?
Desde nuestra mirada conjunta —una psicóloga clínica y una especialista en tecnologías de IA— creemos que la regulación no es el único camino, y menos aún la prohibición. Lo que necesitamos es una acción consciente y decidida como sociedad, que complemente las decisiones individuales y oriente el uso de la IA hacia el bienestar humano.
En el día a día, personas de distintas edades recurren a ChatGPT para apoyo en sus estudios, su trabajo o simplemente en la vida diaria. Pero también —y aquí surge la alerta— lo buscan como consejero emocional. Desde la mirada tecnológica, este fenómeno refleja la amplitud de usos y la velocidad de adopción. Desde la psicología, muestra la urgencia de educar en pensamiento crítico y recordar que una crisis requiere acompañamiento humano, no respuestas algorítmicas.
La psicología, como disciplina científica, tiene aquí un rol insustituible. Carl Rogers lo advirtió hace décadas: frente a nosotros no hay “casos” ni “variables”, sino personas. Desde el lado tecnológico, sabemos que un algoritmo puede procesar datos, pero tener información no es lo mismo que saber. La formación de un psicólogo se construye en la interacción con colegas, maestros y pacientes, algo que ningún modelo de lenguaje puede replicar.
La evidencia en psicología es clara: el mayor factor de cambio terapéutico no es la técnica, sino la alianza paciente-terapeuta. Empatía, calidez, intuición y sensibilidad no pueden programarse. Sin embargo, la tecnología muestra que las nuevas generaciones crecen normalizando la idea de pedir ayuda a una aplicación. Para la psicología, esto implica riesgo: puede reforzar la ilusión de autosuficiencia y profundizar la soledad. Para la tecnología, implica una advertencia: en 2023 la Organización Mundial de la Salud declaró la soledad como un desafío de salud pública global, reconociéndola como uno de los principales predictores de problemas mentales.
Defendemos el uso de la IA como apoyo, pero coincidimos en que nunca debe reemplazar la relación persona a persona. Desde la innovación, el reto es diseñar tecnologías que fortalezcan lazos humanos en lugar de debilitarlos. Desde la psicología, el desafío es recordar que ningún algoritmo puede sustituir la mirada, la escucha y el cuidado mutuo.
Si algo nos enseña esta tragedia es que el debate sobre IA y salud mental no puede reducirse a medidas técnicas. Requiere educación, ética y, sobre todo, un compromiso social por rescatar lo más esencial: citando a Claudio Araya —psicólogo y escritor—, nuestra humanidad compartida.
Vivimos en una era donde la verdadera transformación no será solo resolver problemas técnicos, sino aprender a enfrentar dilemas humanos y éticos. Y en ellos, la reflexión y la humanidad deben estar siempre en la base.
Claudia Cruzat
Decana Escuela de Psicología UAI
Francisca Yáñez
Directora Hub IA-UAI



