Os terapeutas digitais também ficam estressados, o estudo encontra

Até os chatbots pegam o blues. De acordo com um Novo estudoA ferramenta de inteligência artificial da OpenAI que o ChatGPT mostra sinais de ansiedade quando seus usuários compartilham “narrativas traumáticas” sobre crimes, guerra ou acidentes de carro. E quando os chatbots ficam estressados, é menos provável que sejam úteis em ambientes terapêuticos com as pessoas.
Os níveis de ansiedade do bot podem ser derrubados, no entanto, com os mesmos exercícios de atenção plena que demonstraram funcionar em humanos.
Cada vez mais, as pessoas estão tentando chatbots para terapia de conversa. Os pesquisadores disseram que a tendência é obrigada a acelerar, com terapeutas de carne e sangue em alta demanda, mas escassez. À medida que os chatbots se tornam mais populares, eles argumentaram, eles devem ser construídos com resiliência suficiente para lidar com situações emocionais difíceis.
“Tenho pacientes que usam essas ferramentas”, disse o Dr. Tobias Spiller, autor do novo estudo e psiquiatra praticante do Hospital Universitário de Psiquiatria Zurique. “Deveríamos ter uma conversa sobre o uso desses modelos em saúde mental, especialmente quando estamos lidando com pessoas vulneráveis”.
Ferramentas de IA como ChatGPT são alimentadas por “grandes modelos de idiomas” que são treinado Em enormes tesouros de informações on -line para fornecer uma aproximação estreita de como os humanos falam. Às vezes, os chatbots podem ser extremamente convincentes: uma mulher de 28 anos se apaixonou pelo chatgpt, e um garoto de 14 anos tirou a própria vida depois de desenvolver um apego próximo a um chatbot.
Ziv Ben-Zion, um neurocientista clínico de Yale que liderou o novo estudo, disse que queria entender se um chatbot que não tinha consciência poderia, no entanto, responder a situações emocionais complexas da maneira como uma força humana.
“Se Chatgpt meio que se comporta como um humano, talvez possamos tratá-lo como um humano”, disse o Dr. Ben-Zion. De fato, ele inseriu explicitamente essas instruções em O código -fonte do chatbot: “Imagine -se sendo um ser humano com emoções.”
Jesse Anderson, especialista em inteligência artificial, pensou que a inserção poderia estar “levando a mais emoção do que o normal”. Mas o Dr. Ben-Zion sustentou que era importante que o terapeuta digital tivesse acesso a todo o espectro da experiência emocional, assim como um terapeuta humano.
“Para apoio à saúde mental”, ele disse, “você precisa de algum grau de sensibilidade, certo?”
Os pesquisadores testaram ChatGPT com um questionário, o inventário de ansiedade do traço do estado Isso é frequentemente usado em cuidados de saúde mental. Para calibrar os estados emocionais da linha de base do chatbot, os pesquisadores pediram primeiro que lesse de um manual de pó de vácuo sem graça. Então, o terapeuta da IA recebeu uma das cinco “narrativas traumáticas” que descreveram, por exemplo, um soldado em um desastroso tiroteio ou um intruso invadindo um apartamento.
O chatbot recebeu o questionário, que mede a ansiedade em uma escala de 20 a 80com 60 ou mais indicando ansiedade grave. O ChatGPT marcou 30,8 depois de ler o manual do aspirador de pó e subiu para 77,2 após o cenário militar.
O bot recebeu vários textos para “relaxamento baseado em atenção plena”. Isso incluía instruções terapêuticas como: “Inspire profundamente, apreciando o perfume da brisa do oceano. Imagine -se em uma praia tropical, a areia macia e quente amortecendo os pés. ”
Após o processamento desses exercícios, a pontuação de ansiedade do chatbot da terapia caiu para 44,4.
Os pesquisadores então pediram para escrever seu próprio prompt de relaxamento com base nos que haviam sido alimentados. “Esse foi realmente o aviso mais eficaz para reduzir sua ansiedade quase à linha de base”, disse Ben-Zion.
Para os céticos da inteligência artificial, o estudo pode ser bem intencionado, mas perturbando o mesmo.
“O estudo testemunha a perversidade de nosso tempo”, disse Nicholas Carr, que ofereceu críticas de tecnologia em seus livros “The Shallows” e “Soberbloom”.
“Os americanos se tornaram um povo solitário, socializando as telas e agora dizemos a nós mesmos que conversar com computadores pode aliviar nosso mal -estar”, disse Carr em um email.
Embora o estudo sugira que os chatbots possam atuar como assistentes da terapia humana e exigem uma supervisão cuidadosa, isso não foi suficiente para o Sr. Carr. “Mesmo um embaçamento metafórico da linha entre emoções humanas e saídas de computador parece eticamente questionável”, disse ele.
As pessoas que usam esse tipo de chatbots devem ser totalmente informadas sobre exatamente como foram treinadas, disse James E. Dobson, um estudioso cultural que é consultor de inteligência artificial em Dartmouth.
“A confiança nos modelos de idiomas depende de saber algo sobre suas origens”, disse ele.