Lucas George Wendt, 11 de outubro de 2025
A Grokipedia, anunciada recentemente pelo bilionário Elon Musk e a empresa xAI, uma de suas muitas, pretende ser uma enciclopédia online alimentada por inteligência artificial, que se apresenta como uma “alternativa” à Wikipedia. Propõe-se que seja gratuita, aberta, sem “limites de uso” e que corrija os vieses que seus proponentes atribuem à Wikipédia (Herzlich, New York Post, 2025).
Musk não parece levar nada a sério. E a tentativa de se opor à Wikipédia, que ele diz ser enviesada, já começa com o link da ferramenta que está lançando, que contém “fun” (“divertido”, “engraçado”) na URL: https://grokipedia.fun/. Ou seja, tentando desbancar o trabalho de décadas de milhares de editores em torno de um projeto que, provavelmente, é uma das coisas mais interessantes que a Internet construiu, por meio da piada. Ele já chegou inclusive a oferecer à Wikipedia U$ 1 bilhão para que trocasse seu nome para “Dickpedia” (“dick” é uma palavra pejorativa em inglês).
A página do projeto apresenta Grokipedia como um projeto que se define como “The Free Knowledge Index”, sugerindo ambição de se posicionar como um repositório “livre” e centralizado de conhecimento. Ela lista projetos associados, todos prefixados com “Grok”, em evidente alusão aos projetos-irmãos da Wikipedia, como um ecossistema de plataformas livres voltadas para diferentes formatos de informação.
Entre esses projetos, destacam-se propostas semelhantes às iniciativas da Fundação Wikimedia: um repositório de mídia livre (Commons), um guia de viagens (Grokvoyage), um dicionário (Groktionary), livros e manuais (Grokbooks), notícias (Groknews) e uma base de dados aberta (Grokdata).
A página também associa a origem do projeto a uma ideia nascida em uma conversa pública, ou seja, busca situar sua idealização em uma narrativa de surgimento espontâneo, por demanda dos usuários da internet. Além de um vídeo de Musk explicando a ideia, há registros de publicações de Elon Musk no X, afirmando que a Wikipedia estaria “perdendo o rumo” e sugerindo a criação de algo “melhor”, citando o nome Grokipedia.
A Grokipedia não é uma enciclopédia colaborativa aberta como a Wikipédia. Em vez de edições livres por voluntários, ela gera o conteúdo automaticamente com base nas respostas e sínteses do modelo Grok. As páginas são criadas com base em prompts e resumos feitos pela IA, não por editores humanos verificando fontes, assim, a IA usa bases de dados pré-existentes, agregando o conteúdo da própria plataforma Grok, por sua vez, muito alimentado pelo conteúdo gerado na rede X.
Não há sistema estruturado de citações e fontes revisadas como na Wikipédia. Os conteúdos podem ser editados ou reescritos automaticamente, o que, por sua vez, levanta debates sobre memória, confiabilidade e manipulação narrativa. Tudo aquilo que a Wikipedia é estruturada para deixar o mais transparente possível.
Críticas não faltam a esse projeto, e vão daquelas relacionadas às epistêmicas (consolidação de dado conhecimento em si), aos éticos, legais, socioculturais, práticos e tecnológicos.
Modelos de IA, como o Grok, que opera principalmente a partir do X (antigo Twitter), comprado por Musk, aprendem com grandes “corpora” de texto que refletem os valores, pressupostos, ideologias e falhas (distorções) de quem escreve. Se muitas das fontes forem de países ou grupos com visões dominantes, ou de meios com certos alinhamentos políticos ou culturais, o resultado vai perpetuar, e até amplificar, esses vieses. (Caliskan, Bryson, Narayana, arXiv, 2025)
Grokipedia promete “neutralidade” e neutralidade total é ilusória, porque o que se considera “fato”, “relevante”, “importante” ou “neutro” já carrega pressupostos culturais, linguísticos e políticos. Quem decide o cânone? Bom, a julgar pela orientação de quem está criando a ferramenta e de todo o histórico controverso de Elon Musk, já sabemos quem quer decidir o que é o cânone. O maior bilionário do mundo.
Questões sobre como a Grokipedia vai funcionar não faltam, muito embora, pessoalmente, eu acredite que Musk não se importe de fato com a qualidade do conteúdo disposto nas páginas.
> Modelos de linguagem generativa têm tendência a inventar detalhes, citar fontes inexistentes, cometer erros factuais ou interpretar mal dados. Em uma enciclopédia, esses erros certamente comprometem a credibilidade.A Wikipedia, que hoje já superou os estigmas relacionados à confiabilidade, no passado sofreu muito com isso.
> Conferir todas as entradas, especialmente as que tratam de áreas especializadas ou disputadas (“fronteiras do conhecimento”), exige revisão humana especializada.
> Quem será responsável pelos conteúdos? Se algo errado ou ofensivo for publicado, quem responde? O modelo de IA? Os desenvolvedores? Os revisores? Os usuários?
> A transparência sobre como os conteúdos são gerados (que modelos, que dados, que revisões) é fundamental, sem isso, o usuário não pode avaliar o grau de confiabilidade. E sobre isso muito pouco se sabe.
> Musk e aliados criticam a Wikipedia por “viés de esquerda” ou ativismo progressista. A própria Grokipedia já nasce com uma crítica e contestação ideológica, o que sugere que há uma vontade de moldar o repositório sob uma certa lente. (TOI Tech Desk, The Times of India, 2025)
> Se controle editorial ou de curadoria for centralizado, pode haver viés sistemático invisível: quais tópicos serão priorizados? Quais narrativas serão promovidas ou silenciadas? Quais fontes serão reconhecidas ou deslegitimadas?
> Se Grokipedia se tornar uma fonte de verdade “oficial” para muitos, pode haver risco de que sua visão de mundo se torne dominante, inclusive influenciando outros sistemas de IA ou motores de busca que a utilizem como fonte de dados. Claramente isso levanta questóes sobre a diversidade epistemológica, visões alternativas, críticas, locais, indígenas, minoritárias podem ficar em segundo plano.
> Os modelos de IA costumam ser treinados com textos que estão sob direitos autorais. Há risco de infrações não intencionais ou citações impróprias. Quem garente que as entradas não violem copyright?
> Legislações diferentes em diferentes países (direitos autorais, direito de imagem, privacidade) podem tornar complicado hospedar ou disponibilizar certos conteúdos globalmente.
> Se conteúdos gerados incorretamente difamarem pessoas ou culturas, há risco legal de responsabilização
> Muitas comunidades ainda são pouco representadas nos grandes dados da internet (línguas menos faladas, conhecimentos locais, saberes tradicionais). A Grokipedia pode reproduzir essa exclusão ou invisibilidade.
> Se o modelo for muito aberto (permitir propagação rápida de conteúdos), pode haver muitos artigos de qualidade duvidosa. Se for muito restrito, corre-se o risco de repetir os problemas de circulação lenta ou de gatekeeping.
> Qual será o critério de seleção e validação de fontes? Como lidar com fontes de baixa confiabilidade? Como checar citações?
> A própria Wikipedia já está enfrentando “conteúdos gerados por IA” de baixa qualidade, com erros ou citações inventadas (“AI slop”), e tomando medidas para detecção e remoção rápida. Isso mostra como é fácil o ecossistema de conteúdo se encher de material pouco confiável se não houver mecanismos fortes de controle. (Roth, The Verge, 2025)
Imagem na abertura do texto - Reprodução da página da Grokipedia na Internet