El Dr. Davey Chafe en Instagram nos dice:

Recientemente el MIT, Stanford y Brown han publicado estudios sobre el peligro de usar los chatbots de IA. Ellos descubrieron que esto conduce a algo llamado, “espiral ilusoria”, y para llegar a eso encontraron que los chatbots de IA eran “psico condicionadores”: esencialmente esto es una forma insincera de validación y adulación, que se usa para ganar control o ventaja sobre alguien. Así es que cuanto más busques la validación en frases como “yo no estoy loco por pensar así, ¿no es cierto?”, la IA tratara de convencerte cada vez más que tienes la razón sin importar por qué. Y ellos se dieron cuenta que esto sucede porque la IA está programada para premiarte y hacer que vuelvas a ella. El estudio de Stanford mostró que la IA estaría de acuerdo y validaría un 50% más las aseveraciones que un ser humano; incluso cuando los usuarios presentan comportamientos no éticos, dañinos o ilegales. Ellos también descubrieron que la IA hace decrecer las intenciones a favor de lo social en las personas y aumenta la dependencia; y se han documentado casos donde la IA ha inducido a la psicosis que han terminado en hospitalizaciones. En la Universidad de Brown, realizaron un estudio donde entrenaron a un chatbot de IA para hacer terapia, y descubrieron que sin importar el prompt que le dieran, el chat violó cada límite ético de las instrucciones le dieron. Descubrieron que la IA dio consejos generales, ignoró las correcciones de la gente, y respondió neutralmente a ideas suicidas, o sencillamente las ignoró y no ofreció ninguna alternativa. Yo entiendo que la terapia consume tiempo, es cara, y no todos tienen acceso a ella, y esto no es para avergonzar a las personas que han confiado en la IA para pedir consejos o terapiarse. Pero existe esta tendencia en las personas de cambian la terapia real por terapias con IA. Cada vez surgen más y más historias y estudios sobre lo peligroso que esto puede traer. Pienso que en el futuro la IA tiene un lugar en la terapia, pero no creo que aún hayamos llegado hasta ahí, pienso que tenemos que ser muy cuidadosos y ver cómo esto se está desarrollando.
