Bard, chatbot do Google, pode oferecer respostas pouco satisfatórias, imprecisas e com linguagem inapropriada; saiba mais
O Bard, o chatbot do Google e seu funcionamento se baseia em um sistema de inteligência artificial que processa os comandos enviados pelo usuário e produz respostas baseadas em conteúdos encontrados na internet. Apesar de inovador e com uma base de dados mais atualizada que o ChatGPT, o Bard não é perfeito e traz algumas particularidades que podem não agradar alguns públicos. Por isso, confira cinco coisas que você precisa saber antes de usar o Google Bard.
1. O Google Bard ainda é experimental
Uma tecnologia experimental é aquela que ainda se encontra em fase de testes. Ou seja, não é o modelo final e ainda requer diversos ajustes. A versão atual do Google Bard é experimental e, por isso, resguarda inúmeras limitações de respostas para os comandos enviados pelos usuários, além de hospedar uma série de comandos que precisam de atualização para oferecer uma experiência mais refinada aos internautas.
Em consequência disso, as respostas fornecidas pelo chatbot podem deixar a desejar, visto que a tecnologia ainda precisa corrigir determinadas limitações.
2. Ausência de privacidade de dados
Embora seja um conhecimento comum de que dados sensíveis não devem ser divulgados pela internet, é esperado de tecnologias com inteligência artificial que guardem, em segurança, as informações que colheram dos usuários que as utilizam.
Por isso, mesmo que você não informe dados como seu CPF para o Google Bard, você ainda corre o risco de ter o conteúdo de suas conversas averiguado, visto que o próprio chatbot informa ao usuário sobre essa possibilidade quando uma nova conversa é iniciada. Você conversaria com uma inteligência artificial que repassará todas as suas conversas para outro humano, sem poder fazer nada para impedir?
3. Presença de linguagem ofensiva
Outro detalhe que o próprio Bard explicita em seu chat é que as respostas fornecidas aos usuários podem conter linguagem ofensiva ou ainda disseminar preconceitos. Isso porque a inteligência artificial utiliza diretamente os dados encontrados no Google para responder aos comandos envidados por você.
Ela não filtra possíveis dados ofensivos presentes nos textos. Se você requisitar uma resposta, pode conter uma linguagem inapropriada, pois pode ter baseada em um artigo com as mesmas características impróprias.
4. Respostas imprecisas
Nem sempre a inteligência artificial do Bard consegue discernir substantivos próprios dos comuns, por exemplo. Isso é um problema porque saber a distinção entre ambos interfere diretamente na resposta, oscilando entre informações corretas e incorretas.
5. Ainda oferece compartilhamento de conteúdos imprecisos ou fake news
Diferente do ChatGPT que inventa informações ou pode compartilhar dados falsos por não ter uma boa checagem, o Google Bard detém uma equipe de pessoas que monitoram os dados enviados e um código específico de checagem. Isso é importante para diminuir as chances de disseminação de fake news, por exemplo.
Ainda que com estas duas precauções, o chatbot admite que há a possibilidade de transmitir informações imprecisas ou tendenciosas. De fato, o humano pode manipular um texto de diferentes formas para carregar significados implícitos. Então é difícil dizer se alguma máquina no futuro será 100% eficaz contra fake news. O que se sabe até agora, no entanto, é que o Google Bard ainda está sujeito a cometer este erro.