Page 8 - Diario 24/09/2025
P. 8
Miércoles 24 de septiembre de 2025 www.ladiscusion.cl
Universidad
DANIEL MEDINA SAAVEDRA
Noticias UdeC IA en sAlud mentAl
fotos: Noticias udec
l uso de inteligencia arti- Especialistas UdeC
ficial (IA) en salud mental
volvió al centro del debate
global tras una demanda
Einterpuesta en Estados
Unidos contra OpenAI, relacionada advierten riesgos y
con la muerte de un adolescente que
habría utilizado ChatGPT como
principal apoyo emocional.
El caso, ampliamente difundo por
medios internacionales, evidenció resguardos en uso no
los riesgos de confiar en chatbots
para reemplazar vínculos humanos
y atención profesional.
En esta materia, especialistas del
Departamento de Psicología de la supervisado de chatbots
Facultad de Ciencias Sociales de la
Universidad de Concepción enfa-
tizaron los peligros de utilizar IA
como sustituto del acompañamiento
emocional humano.
El Director del Departamento de Académicas y académicos UdeC coinciden en que la IA puede ser un complemento en
Psicología, Dr. Félix Cova Solar señaló
que si bien la IA puede ser útil para contextos controlados, pero jamás debe sustituir la atención psicológica ni las relaciones
obtener información o reflexionar
sobre dificultades personales, su uso humanas.
puede generar confusión y falsas
expectativas.
“Es una ayuda con un alcance limi- han comenzado a reportar incluyen tropomorfizar el modelo, lo que da de un ser humano”, indicó.
tado, y bajo ninguna circunstancia procesos que llevan a delirios o sín- una falsa sensación de compañía De todos modos, el docente su-
puede reemplazar lo que un vínculo tomas psicóticos, o el ocultamiento y puede aumentar el aislamien- brayó que la inteligencia artificial no
humano puede proporcionar. La IA de ideas suicidas”. to”, manifestó la académica de se limita a los chatbots y que su uso
no puede reemplazar la atención Al contrario de lo que sucede con la Facultad de Ciencias Físicas y adecuado depende del contexto.
psicológica, los vínculos humanos, el uso de IA en salud mental, esta Matemáticas UdeC. “Es bueno hacer notar que el
la conversación con amistades, con situación “no ocurre en la conver- campo de la IA excede con creces
familiares”, expresó. sación con un ser humano, cuya Recomendaciones para un uso al de los chatbot y los LLM […] En
En la misma línea, la docente Dr. forma natural de responder llevará responsable el ámbito médico, cada vez más
Carolina Inostroza Rovegno dijo a un proceso de búsqueda de ayuda”, La Dra. Alejandra Maldonado se utilizan sistemas de apoyo al
que los chatbots actuales tienden a aseguró. recomendó aplicar pensamiento diagnóstico de imágenes”, aclaró
reforzar las creencias del usuario, crítico y contrastar siempre las el Dr. Claudio Bustos.
sin ofrecer contrapuntos ni generar IA en salud mental: limitaciones respuestas de la IA con fuentes
un diálogo real. tecnológicas y sesgos confiables como libros, artículos ¿Cómo iniciar terapia psicoló-
Esto puede causar, explicó, “espira- La Directora del Programa [genIA] científicos o reportes. gica?
les que pueden agudizar las creencias UdeC, Dra. Alejandra Maldonado “Es importante diferenciar entre Los especialistas del Departamen-
o síntomas que la persona presenta, Trapp, explicó que los modelos de- información factual y opiniones to de Psicología también destacaron
donde los casos más graves que se trás de los chatbots como ChatGPT generadas por la IA. Para usuarios los pasos recomendados para per-
o Gemini no piensan ni razonan vulnerables, como personas con sonas que deseen iniciar un proceso
como los humanos. depresión, la recomendación es de terapia psicológica.
“Su funcionamiento es probabi- que quienes observen un uso peli- “Si una persona está desborda-
lístico, basado en estimaciones de groso de estas tecnologías intenten da por las situaciones que vive lo
Proceso terapéutico palabras, y depende de los textos con ayudar”. ideal es que recurra a sus vínculos
los que fueron entrenados, los cuales Por su parte, el académico de cercanos, a personas en las que
La Dra. Carolina Inostroza complementó la importan- pueden contener sesgos humanos, Psicología UdeC, Dr. Claudio confíe. Si ello es insuficiente, es
cia de informarse al iniciar un proceso terapéutico. como el de género”, detalló. Bustos Navarrete, enfatizó que el útil considerar la ayuda profesio-
“Es recomendable buscar referencias respecto al Además, advirtió sobre los riesgos problema está en el uso específico nal. Recurrir a ayuda profesional
profesional psicólogo que le atenderá. Esto incluye de seguridad y privacidad. “Nin- de los modelos de lenguaje como es imperativo si la persona tiene
información respecto de su formación especializada guna IA en la nube está libres de ChatGPT. conductas autodestructivas o tiene
en el área clínica: grupos de edad a los que atiende, brechas de seguridad, por lo que “Se está trabajando en sistemas fuertes impulsos de realizarlas. En
problemas psicológicos o trastornos mentales en la información sensible podría ser de apoyo con IA, pero siempre bajo este último contexto, recurrir a la
los que tiene experticia, avalada por postítulos o expuesta. También puede generarse supervisión humana, [y] nunca re- IA es contraproducente y riesgoso”,
magíster”, finalizó. una dependencia emocional al an- emplazan el contacto ni la empatía dijo el Dr. Félix Cova.
Enfatizaron
los peligros de
utilizar IA como
sustituto del
acompañamiento
emocional
humano.