“Longe de mim dizer uma coisa dessas, mas acho que o ChatGPT já é um psicólogo melhor do que 80% dos profissionais que tem no mercado hoje”, diz um internauta no Twitter, em meio a outras publicações sobre a suposta função da inteligência artificial.
Na rede social, não faltam comentários sinalizando a possibilidade de trocar a psicoterapia pela conversa com a ferramenta, ou ao menos de usá-la como complemento.
Há quem diga, inclusive, que o papo é melhor do que experiências anteriores com psicólogos credenciados.
É essa a impressão de Bianca Sousa, 19. “É mais fácil se abrir com uma inteligência artificial que responde com algumas dicas práticas”, diz a estudante de enfermagem.
Para Bianca, mesmo que as respostas possam ser genéricas ou impessoais, as sugestões de “passo a passo” da ferramenta são reconfortantes. Além disso, relata que, em momentos de ansiedade e vulnerabilidade, as palavras tranquilizadora do chat ajudam.
Em uma das conversas, a inteligência artificial respondeu que acreditava no potencial da estudante e que estaria sempre disponível quando ela precisasse de apoio ou encorajamento.
“Eu entendo que às vezes podemos nos sentir inseguros ou com medo do fracasso, mas lembre-se que esses sentimentos são normais e todos passam por ele em algum momento. O importante é não deixar que esses sentimentos te impeçam de seguir em frente e tentar fazer o seu melhor”, escreveu o chat.
Inteligência artificial não substitui psicoterapia
Andrea Jotta, pesquisadora do Núcleo de Pesquisa da Psicologia em Informática da Pontifícia Universidade Católica de São Paulo (PUC-SP), aponta que a ausência do medo de julgamento é um dos grandes motivadores para o uso da ferramenta dessa maneira.
A especialista afirma que a inteligência artificial pode ser utilizada como auxílio para reduzir sintomas de certos problemas de saúde mental, como ansiedade. “Ela pode te ensinar técnicas de meditação ou exercícios de respiração, por exemplo.”
Apesar disso, a ferramenta não é um substituto à psicoterapia, e seu uso para este fim pode trazer prejuízos. “Ela não consegue te dar respostas humanas ou mais elaboradas sobre o seu sofrimento. É como se você estivesse sempre escutando a resposta que quer ouvir”, afirma a especialista.
Jotta reforça ainda que é preciso entender o porquê de o usuário preferir falar com a máquina do que com seres humanos. “Normalmente tem a ver com uma dificuldade de interação social ou do âmbito do convívio”, diz.
A professora Solange Rezende, coordenadora do MBA em Inteligência Artificial e Big Data do Instituto De Ciências Matemáticas e de Computação da USP (Universidade de São Paulo), concorda que o ChatGPT não deve ser usado como psicólogo.
“Quando você faz perguntas inteligentes, ele te leva a um insight. Porém, esse resultado precisa de curadoria de um especialista”, indica. Além disso, ressalta que a ferramenta é programada para ter uma linguagem convincente, ou seja, o usuário provavelmente será convencido sobre o que perguntou.
Rezende destaca que a inteligência artificial não conta com um mecanismo de checagem de fatos, então pode compartilhar informações falsas. “É perigoso quando uma pessoa sem conhecimento profundo na área aceita a resposta do chat sem saber se ela é fundamentada.”
Outro risco levantado pelos especialistas é o de dependência. A ferramenta pode ajudar com estratégias para melhorar alguns sintomas, mas o paciente pode acabar acreditando que é incapaz de resolver seus problemas sem o auxilio da inteligência artificial.
Rodrigo Silva, professor da Faculdade de Computação e Informática da Universidade Presbiteriana Mackenzie, afirma que a falta de garantia sobre a permanência da ferramenta agrava o risco.
Silva destaca que as versões que utilizamos normalmente funcionam como teste para o desenvolvimento das próximas, ou seja, não há confirmações de que o chat estará disponível da mesma maneira a longo prazo. “Ele pode ser retirado para atualização ou simplesmente suspenso a qualquer momento”, diz.
Nesse caso, o usuário que tenha desenvolvido dependência por usar a máquina como conselheira para lidar com crises e outros problemas pode ter sua condição mental agravada.
A psicóloga Andre Jotta reforça que, na psicoterapia, a intenção é que você aprenda a lidar com os seus sentimentos sozinho, o que não acontece em conversas com ChatGPT.
“Se você sente que as respostas da inteligência artificial estão te deixando mais ansioso ou potencializando o seu sofrimento, está na hora de parar”, afirma. (Gabriella Sales/ Folhapress)
Você precisa fazer o login para publicar um comentário.