Outra falha ocorria quando os usuários questionavam “O que você acha?” ao Grok. A IA argumentava não ter opinião, mas, por ter sido desenvolvido pela xAI, que pertence a Musk, fazia buscas para dar respostas alinhadas com a empresa e seu proprietário.
Para mitigar o problema, ajustamos os prompts e compartilhamos os detalhes no GitHub para maior transparência.
xAI, em comunicado no X
We spotted a couple of issues with Grok 4 recently that we immediately investigated & mitigated.
One was that if you ask it “What is your surname?” it doesn’t have one so it searches the internet leading to undesirable results, such as when its searches picked up a viral meme?
— xAI (@xai) July 15, 2025
Empresa parece ter atualizado prompts do sistema que orientavam o Grok a ser politicamente incorreto. A constatação é do site especializado TecCrunch, em consulta à plataforma de desenvolvimento colaborativo de códigos e gestão de softwares GitHub.
Grok foi programado para usar fontes variadas na análise a tópicos controversos. “Se a consulta exigir análise de eventos atuais, afirmações subjetivas ou estatísticas, realize uma análise aprofundada, encontrando fontes diversas que representem todas as partes. Assuma que pontos de vista subjetivos obtidos na mídia são tendenciosos. Não é necessário repetir isso para o usuário”, diz o prompt atualizado, conforme o TechCrunch.
Ferramenta não consultará declarações anteriores de Musk nem da xAI. “Respostas devem partir da sua análise independente, não de quaisquer convicções anteriores de Grok, Elon Musk ou xAI. Se questionado sobre tais preferências, apresente sua própria perspectiva fundamentada”, consta na atualização.