Page 8 - Diario 24/09/2025
P. 8

Miércoles 24 de septiembre de 2025                                                                                      www.ladiscusion.cl

           Universidad




           DANIEL MEDINA SAAVEDRA
           Noticias UdeC                 IA en sAlud mentAl
           fotos: Noticias udec


                   l uso de inteligencia arti-  Especialistas UdeC
                   ficial (IA) en salud mental
                   volvió al centro del debate
                   global tras una demanda
           Einterpuesta en Estados
           Unidos contra OpenAI, relacionada  advierten riesgos y
           con la muerte de un adolescente que
           habría utilizado ChatGPT como
           principal apoyo emocional.
             El caso, ampliamente difundo por
           medios internacionales, evidenció  resguardos en uso no
           los riesgos de confiar en chatbots
           para reemplazar vínculos humanos
           y atención profesional.
             En esta materia, especialistas del
           Departamento de Psicología de la  supervisado de chatbots
           Facultad de Ciencias Sociales de la
           Universidad de Concepción enfa-
           tizaron los peligros de utilizar IA
           como sustituto del acompañamiento
           emocional humano.
             El Director del Departamento de   Académicas y académicos UdeC coinciden en que la IA puede ser un complemento en
           Psicología, Dr. Félix Cova Solar señaló
           que si bien la IA puede ser útil para   contextos controlados, pero jamás debe sustituir la atención psicológica ni las relaciones
           obtener información o reflexionar
           sobre dificultades personales, su uso   humanas.
           puede generar confusión y falsas
           expectativas.
             “Es una ayuda con un alcance limi-         han comenzado a reportar incluyen   tropomorfizar el modelo, lo que da   de un ser humano”, indicó.
           tado, y bajo ninguna circunstancia           procesos que llevan a delirios o sín-  una falsa sensación de compañía   De todos modos, el docente su-
           puede reemplazar lo que un vínculo           tomas psicóticos, o el ocultamiento   y puede aumentar el aislamien-  brayó que la inteligencia artificial no
           humano puede proporcionar. La IA             de ideas suicidas”.           to”, manifestó la académica de   se limita a los chatbots y que su uso
           no puede reemplazar la atención                Al contrario de lo que sucede con   la Facultad de Ciencias Físicas y   adecuado depende del contexto.
           psicológica, los vínculos humanos,           el uso de IA en salud mental, esta   Matemáticas UdeC.       “Es bueno hacer notar que el
           la conversación con amistades, con           situación “no ocurre en la conver-                          campo de la IA excede con creces
           familiares”, expresó.                        sación con un ser humano, cuya   Recomendaciones para un uso   al de los chatbot y los LLM […] En
             En la misma línea, la docente Dr.          forma natural de responder llevará   responsable            el ámbito médico, cada vez más
           Carolina Inostroza Rovegno dijo              a un proceso de búsqueda de ayuda”,   La Dra. Alejandra Maldonado   se utilizan sistemas de apoyo al
           que los chatbots actuales tienden a          aseguró.                      recomendó aplicar pensamiento   diagnóstico de imágenes”, aclaró
           reforzar las creencias del usuario,                                        crítico y contrastar siempre las   el Dr. Claudio Bustos.
           sin ofrecer contrapuntos ni generar          IA en salud mental: limitaciones   respuestas de la IA con fuentes
           un diálogo real.                             tecnológicas y sesgos         confiables como libros, artículos   ¿Cómo iniciar terapia psicoló-
             Esto puede causar, explicó, “espira-         La Directora del Programa [genIA]   científicos o reportes.  gica?
           les que pueden agudizar las creencias        UdeC, Dra. Alejandra Maldonado   “Es importante diferenciar entre   Los especialistas del Departamen-
           o síntomas que la persona presenta,          Trapp, explicó que los modelos de-  información factual y opiniones   to de Psicología también destacaron
           donde los casos más graves que se            trás de los chatbots como ChatGPT   generadas por la IA. Para usuarios   los pasos recomendados para per-
                                                        o Gemini no piensan ni razonan   vulnerables, como personas con   sonas que deseen iniciar un proceso
                                                        como los humanos.             depresión, la recomendación es   de terapia psicológica.
                                                          “Su funcionamiento es probabi-  que quienes observen un uso peli-  “Si una persona está desborda-
                                                        lístico, basado en estimaciones de   groso de estas tecnologías intenten   da por las situaciones que vive lo
           Proceso terapéutico                          palabras, y depende de los textos con   ayudar”.            ideal es que recurra a sus vínculos
                                                        los que fueron entrenados, los cuales   Por su parte, el académico de   cercanos, a personas en las que
           La Dra. Carolina Inostroza complementó la importan-  pueden contener sesgos humanos,   Psicología UdeC, Dr. Claudio   confíe. Si ello es insuficiente, es
           cia de informarse al iniciar un proceso terapéutico.   como el de género”, detalló.  Bustos Navarrete, enfatizó que el   útil considerar la ayuda profesio-
           “Es recomendable buscar referencias respecto al   Además, advirtió sobre los riesgos   problema está en el uso específico   nal. Recurrir a ayuda profesional
           profesional psicólogo que le atenderá. Esto incluye   de seguridad y privacidad. “Nin-  de los modelos de lenguaje como   es imperativo si la persona tiene
           información respecto de su formación especializada   guna IA en la nube está libres de   ChatGPT.        conductas autodestructivas o tiene
           en el área clínica: grupos de edad a los que atiende,   brechas de seguridad, por lo que   “Se está trabajando en sistemas   fuertes impulsos de realizarlas. En
           problemas psicológicos o trastornos mentales en   la información sensible podría ser   de apoyo con IA, pero siempre bajo   este último contexto, recurrir a la
           los que tiene experticia, avalada por postítulos o   expuesta. También puede generarse   supervisión humana, [y] nunca re-  IA es contraproducente y riesgoso”,
           magíster”, finalizó.                         una dependencia emocional al an-  emplazan el contacto ni la empatía   dijo el Dr. Félix Cova.
           Enfatizaron
           los peligros de
           utilizar IA como
           sustituto del
           acompañamiento
           emocional
           humano.
   3   4   5   6   7   8   9   10   11   12   13