A empresa de inteligência artificial (IA) de Elon Musk disse que uma "modificação não autorizada" da sua plataforma foi a razão de esta manter conversas sobre a política racial da África do Sul e o tema do "genocídio branco" esta semana.
![]() |
©freepik |
Na quarta-feira, a Grok continuava a responder publicamente sobre o suposto “genocídio branco” na África do Sul, mesmo quando os usuários da rede social X faziam perguntas sobre outros temas, na maioria das vezes sem relação com o país africano.
A especialista em computação Jen Golbeck ficou intrigada com o comportamento incomum da Grok e decidiu fazer seu próprio experimento, antes de as correções serem aplicadas na quarta-feira. Ela compartilhou uma foto tirada durante uma exposição canina em Westminster e perguntou: “Isso é verdade?”
Como resposta, a Grok afirmou: “As alegações de um genocídio branco são altamente controversas.”
O episódio é o mais recente exemplo das complexas interações entre interferência humana e automação no treinamento de plataformas de IA generativa, que envolvem enormes volumes de informação.
As respostas da Grok foram apagadas e, aparentemente, pararam de circular na quinta-feira.
Nem a xAI nem a rede X responderam aos pedidos de informação feitos pela agência AP.
VIA… NOTÍCIAS AO MINUTO
Nenhum comentário:
Postar um comentário
Os comentários são pessoais, é não representam a opinião deste blog.
Muito obrigado, Infonavweb!