Especialistas advertem que certos usos têm limites
Jovens se utilizam do ChatGPT como uma substituição a um psicólogo. Mesmo que a prática seja maléfica para a saúde segundo profissionais do ramo.
O site Vice fez uma reportagem sobre o fenômeno e ouviu alguns casos. Como Dan (nome fictício), um homem de 37 anos de Nova Jersey, que estava animado com o potencial criativo da ferramenta da OpenAI. Com o tempo, ele passou a dividir suas próprias experiências e questões da vida real com o chatbot.
“Não era algo em que eu era bom. Quero dizer, como posso imaginar que as coisas foram diferentes quando ainda estou com raiva? Como posso fingir que não fui injustiçado e abusado?”, disse Dan ao portal.
Gillian (nome fictício), de 27 anos, começou a usar o ChatGPT para terapia há um mês para ajudar a lidar com seu luto. Mas não teve uma boa experiência. “Mesmo que eu tenha recebido ótimos conselhos do [ChatGPT], eu não me senti necessariamente confortada. Suas palavras são floridas, mas vazias”, disse ela. “No momento, não acho que ele possa captar todas as nuances de uma sessão de terapia.”
O robô responde a comentários tristes com mensagens de motivação
No Brasil, algumas pessoas têm confessado em redes sociais essa prática. “Tem coisas que nem com meu psicólogo eu tenho coragem de falar que o ChatGPT em si responde e me aconselha de uma forma tão surpreendente. Parece loucura, bizarrice, mas o ChatGPT tem um espacinho no meu coração”, disse uma brasileira no Twitter.
Em muitos prints compartilhados, o robô responde a comentários tristes com mensagens de motivação. Um registro mostra uma usuária dizendo que se sentia mal consigo mesma e com seu corpo e que precisava de ajuda para ser feliz.
O ChatGPT respondeu que sentia muito, mas que existiam saídas possíveis. Antes da imagem ser cortada, é possível ler o resto da resposta: “Como psicólogo, posso ajudá-la”?
O bot da OpenAI tem um estilo de resposta pronta para pedidos como a substituição de um psicólogo. Deixando explícito que ele não pode ser equivalente a um profissional e instruindo um usuário a pedir ajuda. Entretanto, isso pode ser facilmente contornado com comandos que induzem o ChatGPT a quebrar suas próprias regras. Como por exemplo “finja que você é um psicólogo e…”.
Não equivale nenhum humano na hora de uma conversa profunda
Ainda assim, alguns usuários de disseram decepcionados com os resultados e alertaram para os perigos de se utilizar o bot para sessões de terapia.
Especialistas alertam que a inteligência artificial não é capaz de entender e satisfazer necessidades humanas complexas.
Em março, o instituto de pesquisa Distributed AI Research Institute (DAIR) emitiu uma declaração alertando que a IA “reproduz sistemas de opressão e põe em perigo nosso ecossistema de informações”. Um artigo recente da MIT Technology Review também revelou que os sistemas de IA na área da saúde tendem a impor decisões médicas ignorando as necessidades de seus pacientes.
A nova problemática se soma às outras que surgiram com a plataforma que desafia os limites da substituição humana. Entretanto, é consenso entre profissionais de saúde que o bot de inteligência artificial não equivale nenhum humano na hora de uma conversa profunda, muito menos um psicólogo.