Terapeutas usando ChatGPT en secreto: ¿Ético o peligroso?

Imagina confiar tus secretos más profundos a un profesional, solo para descubrir que quien responde no es quien crees. La terapia tiene un nuevo invitado silencioso: la IA.

0
25
Imagen realizada con Nano Banana

¿Qué sucede cuando un terapeuta utiliza herramientas de inteligencia artificial como ChatGPT durante las sesiones sin informar a sus pacientes? Esta pregunta, que hasta hace poco parecía ciencia ficción, se ha convertido en una realidad preocupante. Recientes investigaciones y testimonios revelan que algunos profesionales de la salud mental están empleando modelos de lenguaje generativo para redactar diagnósticos, sugerir tratamientos e incluso simular respuestas durante terapias. Este fenómeno, detectado principalmente en consultas privadas y plataformas digitales de salud mental, está generando un intenso debate sobre los límites éticos y legales de la IA en contextos clínicos.  

El auge silencioso de la IA en consultorios  

A medida que herramientas como ChatGPT se popularizan, su uso se extiende a áreas sensibles e inesperadas. En el campo de la psicología y psiquiatría, algunos terapeutas justifican su empleo argumentando que agiliza procesos administrativos, sugiere enfoques complementarios o ayuda a redactar informes. Sin embargo, cuando esta tecnología se utiliza durante sesiones sin transparencia, se vulnera la confianza paciente-profesional, pilar fundamental de cualquier proceso terapéutico.  

Implicaciones éticas y legales  

La falta de regulación específica sobre el uso de IA en salud mental abre un vacío legal peligroso. Los códigos deontológicos de psicología y medicina aún no contemplan escenarios donde las respuestas provengan parcial o totalmente de un algoritmo. Además, surgen preguntas críticas: ¿quién asume la responsabilidad si un diagnóstico generado por IA es erróneo? ¿Se está obteniendo consentimiento informado de los pacientes? La confidencialidad también se ve comprometida, ya que introducir datos sensibles en plataformas de terceros implica riesgos de privacidad.  

Riesgos para los pacientes  

Más allá de lo legal, está lo humano. La terapia se basa en la conexión auténtica, la empatía y la adaptación contextual que, por ahora, la IA no puede replicar en su totalidad. Un modelo de lenguaje puede generar respuestas coherentes, pero no puede captar matices emocionales, lenguaje corporal o contradicciones no verbales. Pacientes que creen estar interactuando con un profesional podrían recibir sugerencias genéricas o incluso contraproducentes sin saberlo.  

¿Hay espacio para la IA en la salud mental?  

No todo es negativo. La inteligencia artificial tiene potencial como herramienta de apoyo para terapeutas: desde la organización de notas hasta el análisis de patrones en largos historiales clínicos. Plataformas reguladas y transparentes, como Woebot o Tess, ya se usan bajo supervisión profesional y con consentimiento explícito. La clave está en la honestidad y la complementariedad, nunca en el reemplazo encubierto.  

Hacia un futuro regulado y transparente  

Urge establecer marcos claros que definan cómo, cuándo y para qué puede usarse la IA en terapia. Asociaciones profesionales, gobiernos y desarrolladores de tecnología deben colaborar para crear protocolos que prioricen la seguridad y los derechos de los pacientes. La tecnología avanza rápido; la ética y la ley deben seguirle el paso.  

La relación terapéutica es un espacio sagrado de confianza y vulnerabilidad. Introducir IA sin transparencia no es innovación; es traición. ¿Estamos dispuestos a sacrificar la autenticidad humana en nombre de la eficiencia? La conversación apenas comienza.