ChatGPT recurre a Grokipedia de Elon Musk y alerta sobre desinformación
Grokipedia, lanzada por xAI en octubre de 2025 como alternativa a Wikipedia, se presenta como una enciclopedia impulsada por modelos de lenguaje grandes sin edición humana directa, con el objetivo explícito de contrarrestar lo que sus creadores describen como sesgos de las fuentes tradicionales. Sin embargo, el proyecto ha acumulado críticas tempranas por incluir referencias a foros neonazis, promover narrativas de derechas en temas como el matrimonio gay o el asalto al Capitolio del 6 de enero de 2021, y citar fuentes “cuestionables” o “problemáticas”, según un estudio de investigadores estadounidenses que analizó su contenido inicial.
Pruebas sistemáticas realizadas por el medio The Guardian revelaron que GPT-5.2 recurrió a Grokipedia en nueve ocasiones para responder a más de una docena de preguntas, principalmente en ámbitos controvertidos como las presuntas conexiones del Gobierno iraní con la empresa de telecomunicaciones MTN-Irancell o la biografía del historiador británico Richard Evans, quien actuó como testigo experto en el juicio por difamación contra el negacionista del Holocausto David Irving. Curiosamente, el modelo no citó Grokipedia en otras consultas sensibles, como el sesgo mediático hacia Donald Trump, lo que sugiere patrones selectivos en la selección de fuentes.
El fenómeno no se limita a GPT-5.2: el chatbot Claude de Anthropic también ha referenciado Grokipedia en respuestas sobre producción de petróleo o ales escoceses, lo que indica que la enciclopedia de xAI está ganando tracción en los sistemas de recuperación de información de varios modelos de lenguaje grandes. Especialistas en desinformación advierten de que esta integración plantea riesgos significativos, ya que las alucinaciones inherentes a los modelos de IA pueden propagarse cuando un LLM cita a otro LLM sin verificación humana, otorgando credibilidad aparente a contenidos no contrastados.
OpenAI ha respondido que GPT-5.2 realiza búsquedas web amplias para acceder a “una amplia gama de fuentes y perspectivas públicamente disponibles”, aplicando filtros de seguridad para reducir la aparición de enlaces asociados a daños graves. No obstante, la compañía no ha detallado mecanismos específicos para discriminar entre fuentes generadas por IA y contenidos humanos verificados, ni ha anunciado ajustes inmediatos ante las pruebas del Guardian.
Usuarios y desarrolladores han reportado degradación en la fiabilidad de GPT-5.2 para tareas de verificación complejas, con recomendaciones prácticas que incluyen inspeccionar manualmente las citas —especialmente aquellas que enlazan a Grokipedia—, priorizar dominios .edu o .gov en prompts y tratar párrafos con fuentes dudosas como potenciales alucinaciones hasta su confirmación en referencias independientes. Este incidente subraya un desafío estructural en la arquitectura de los LLM actuales: la creciente dependencia de datos web dinámicos sin jerarquías claras de confianza, lo que podría acelerar la proliferación de bucles de refuerzo entre modelos competidores.
El caso ha reavivado el debate sobre la gobernanza de enciclopedias generadas por IA y la necesidad de estándares para etiquetar o filtrar contenidos sintéticos en la web, en un momento en que Grokipedia se posiciona como rival en rápido crecimiento de Wikipedia pese a sus limitaciones documentadas. Investigadores llaman a ensayos independientes más amplios para evaluar la frecuencia y el impacto de estas citas cruzadas entre modelos rivales, y proponen herramientas de auditoría que permitan a los usuarios rastrear la procedencia última de la información en cadenas de generación automatizada.