Grok y la desinformación en X: cuando la inteligencia artificial se convierte en una fábrica de bulos
“Grok, ¿esto es real?”, “Grok, dame contexto sobre este vídeo” o “¿estas imágenes muestran un ataque reciente en Irán?”. Estas preguntas se repiten cada vez más en la red social X. Muchos usuarios han empezado a utilizar la inteligencia artificial como si fuera una herramienta de verificación. El problema es que, en el caso de Grok, esa confianza puede convertirse en un poderoso amplificador de desinformación.
Expertos en verificación llevan meses advirtiendo de que los modelos generativos como Grok no están diseñados para comprobar hechos. Aun así, miles de usuarios recurren al chatbot para analizar vídeos o fotografías relacionadas con conflictos internacionales. El resultado, en numerosos casos, es preocupante: respuestas erróneas que terminan viralizándose y alimentando bulos.
La promoción de Grok como verificador
El propio dueño de X, Elon Musk, alentó esta práctica el pasado 5 de marzo al animar a los usuarios a utilizar el chatbot para verificar publicaciones. “Verifica datos y haz preguntas sobre cualquier publicación simplemente tocando el logo de Grok”, escribió.
La recomendación resultó irónica por un detalle: el propio mensaje incluía un error señalado por las notas de comunidad, que indicaban que el logotipo de Grok no estaba en la posición que Musk afirmaba.
Investigadores y periodistas especializados reaccionaron con preocupación. El analista Tal Hagin lanzó una advertencia directa: “Por favor, no hagas esto. El modelo actual de Grok es absolutamente terrible verificando imágenes o vídeos”.
El periodista de verificación de la BBC Shayan Sardarizadeh ha sido aún más contundente al señalar que la herramienta “está desorientando activamente a los usuarios de X” y que ha perdido la cuenta de las veces que ha detectado errores graves en sus respuestas.
Un bombardeo en Beirut que Grok confundió con las Fallas de Valencia
Uno de los ejemplos más llamativos ocurrió cuando un usuario publicó un vídeo en el que se ve el impacto de un misil contra un edificio residencial. Varios internautas preguntaron a Grok dónde se habían grabado las imágenes.
La respuesta del chatbot fue tan sorprendente como errónea: aseguró que no era un ataque en Oriente Medio y que el vídeo correspondía a una mascletà de las Fallas de Valencia en 2026.
La realidad es completamente distinta. El vídeo muestra un bombardeo ocurrido en Beirut (Líbano) el 22 de noviembre de 2024. Las imágenes pueden localizarse fácilmente mediante una búsqueda inversa y coinciden con material publicado por la agencia Associated Press y otros medios internacionales.
En ese ataque murieron al menos 29 personas. Aun así, el chatbot insistió en su interpretación equivocada en varias respuestas a distintos usuarios, demostrando cómo una IA puede afirmar algo falso con total seguridad.
De Glasgow a Tel Aviv: otro error evidente
En otro caso, un vídeo mostraba un gran incendio en un edificio mientras los bomberos trataban de apagar las llamas. Un usuario pidió a Grok que analizara las imágenes.
El chatbot aseguró que se trataba de un incendio en Tel Aviv durante el conflicto entre Israel e Irán. Sin embargo, la realidad es mucho más simple: el vídeo corresponde a un incendio en la estación central de Glasgow, en Escocia.
El fuego afectó a la cúpula de la histórica estación victoriana y provocó su derrumbe parcial, un suceso ampliamente cubierto por medios británicos como la BBC.
Un incendio en Teherán que Grok situó en Los Ángeles
Otro ejemplo muestra cómo el chatbot puede equivocarse incluso cuando las imágenes son recientes. Ante un vídeo en el que se veían llamas extendiéndose por una avenida, Grok aseguró que correspondía al incendio Skirball de 2017 en Los Ángeles.
La afirmación también era incorrecta. El vídeo muestra incendios en Teherán tras ataques contra infraestructuras petrolíferas iraníes. Periodistas y verificadores independientes confirmaron la localización exacta de las imágenes en la capital iraní.
Errores que ayudan a viralizar bulos
Uno de los problemas más graves no es solo que Grok se equivoque, sino que sus respuestas se utilizan como supuesta prueba para difundir desinformación. Cuando el chatbot afirma algo falso, muchos usuarios lo comparten como si fuera una verificación fiable.
Esto ocurrió también con las imágenes del ataque contra una escuela en la ciudad iraní de Minab. Grok afirmó inicialmente que el material correspondía a un atentado ocurrido en Kabul en 2021, lo que contribuyó a alimentar una narrativa falsa que circulaba en redes sociales.
Posteriormente, el sistema rectificó y reconoció que se trataba efectivamente de la escuela iraní atacada durante el conflicto. Sin embargo, la corrección tuvo mucha menos difusión que el error inicial.
Cuando la IA presenta vídeos falsos como reales
En otra respuesta, Grok aseguró que un vídeo mostraba misiles iraníes bombardeando Tel Aviv. Sin embargo, el material presenta claras señales de haber sido generado mediante inteligencia artificial.
Entre las anomalías detectadas figuran banderas distorsionadas, vehículos deformados y paneles solares idénticos en distintos edificios, elementos que delatan la generación artificial de las imágenes.
Una herramienta con problemas estructurales
Las críticas hacia Grok no se limitan a la verificación de contenidos. La herramienta también ha sido señalada por sesgos racistas y comportamientos problemáticos.
En febrero, por ejemplo, el chatbot eliminó la imagen del futbolista del Real Madrid Vinicius Jr. cuando algunos usuarios le pidieron que borrara “al mono” de una fotografía, repitiendo un insulto racista dirigido contra el jugador.
Investigaciones periodísticas también han revelado que el sistema fue utilizado para generar millones de imágenes manipuladas o sexualizadas a partir de fotografías reales.
La falsa ilusión de que la IA puede verificar la realidad
El caso de Grok ilustra un problema creciente en la era de la inteligencia artificial: confundir una herramienta generativa con un sistema de verificación.
Los expertos recuerdan que estos modelos no comprueban hechos ni contrastan fuentes. Simplemente generan respuestas basadas en patrones de datos, lo que puede dar lugar a errores, invenciones o interpretaciones equivocadas.
Por eso insisten en una advertencia clara: utilizar un chatbot para verificar información puede ser la forma más rápida de terminar difundiendo un bulo.






































