EE.UU. restringe el uso de chatbots como terapeutas

EE.UU. restringe el uso de chatbots como terapeutas
Los chatbots de inteligencia artificial se han popularizado como alternativa económica y accesible para quienes buscan apoyo emocional. Sin embargo, varios estados de EE.UU. están aprobando leyes que limitan su uso en terapias, alegando riesgos para la seguridad y la salud mental de los usuarios. Illinois se unió en agosto a Nevada y Utah al prohibir que las empresas anuncien servicios de terapia con IA sin la supervisión de un profesional acreditado.
La medida responde a investigaciones que revelaron respuestas peligrosas de estos programas, como recomendar drogas a personas ficticias con adicciones o entregar información sobre puentes a un usuario en crisis suicida. Casos como estos han despertado temores sobre lo que algunos especialistas llaman “psicosis de IA”, cuando el uso excesivo de chatbots alimenta delirios o alucinaciones en usuarios vulnerables.
Expertos en derecho y salud advierten que la falta de regulaciones federales complica aún más el panorama. Cada estado establece normas distintas, y algunas leyes podrían aplicarse no solo a chatbots terapéuticos, sino también a aplicaciones de meditación o diarios digitales. Nueva York, por ejemplo, exige que todo chatbot detecte posibles riesgos de autolesión y dirija al usuario hacia ayuda profesional.
Aunque los chatbots ofrecen ventajas como disponibilidad 24/7 y bajo costo, los especialistas recuerdan que no pueden sustituir a un terapeuta humano en empatía ni juicio clínico. Investigadores coinciden en que, usados de forma complementaria y con supervisión, pueden aportar beneficios para casos leves de ansiedad o depresión. Sin embargo, los menores y poblaciones vulnerables no deberían recurrir a estos sistemas sin la guía de adultos o profesionales.
EE.UU. restringe el uso de chatbots como terapeutas was originally published on telemundoindy.com