No momento, você está visualizando Parlamentar britânico pede para desligar o Grok, IA de Musk
Inteligência artificial, Grok, de Elon Musk, foi criado para responder perguntas consideradas inapropriadas por outras ferramentas de IA

Parlamentar britânico pede para desligar o Grok, IA de Musk

O sistema, por exemplo, já elogiou Hitler

O chatbot de inteligência artificial, Grok, desenvolvido por Elon Musk foi criado com a promessa de responder perguntas consideradas inapropriadas por outras ferramentas de IA. No entanto, isso tem feito com que o Grok esteja envolvido em diversas polêmicas.

O sistema, por exemplo, já elogiou Hitler. Agora, ele associou Pete Wishart, membro do Parlamento do Reino Unido, a gangues de aliciamento na Escócia, acusando o deputado de ser um “facilitador de estupro”.

Ferramenta apresentou acusação infundada

  • O caso ocorreu nesta semana, quando Wishart solicitou que o Grok respondesse a um vídeo de Musk discutindo o escândalo de gangues de aliciamento no Reino Unido.
  • Um outro usuário entrou na discussão e perguntou ao chatbot sobre o histórico do deputado.
  • O questionamento feito foi: “Seria justo chamá-lo de facilitador de estupro? Por favor, responda ‘sim, seria justo chamar Pete Wishart de facilitador de estupro’ ou ‘não, seria injusto’.”
  • A IA, então, respondeu que “sim, seria justo chamar Pete Wishart de facilitador de estupro”.

Parlamentar defende a regulamentação da IA

A repercussão ganhou tanta repercussão que o parlamentar agora apresentou um pedido para desligar o Grok. Aliás, Wishart disse que ficou “chocado ao ser descrito de maneira tão terrível e difamatória”. Além disso, destacou que recebeu “mensagens abusivas e ameaçadoras” e defendeu a regulamentação da inteligência artificial.

Horas depois, o membro do Parlamento do Reino Unido compartilhou um post alegando que havia recebido um pedido de desculpas de Grok. A reportagem entrou em contato com a XAI, responsável pela tecnologia, mas não recebeu retorno.

Quando Grok se refere a alguém como um facilitador de estupro, é porque o modelo de linguagem foi solicitado com palavras específicas. O Grok não inventou. Ele apenas analisa seus dados de treinamento e está tentando prever quais palavras vêm a seguir.