¿Usó Grok para 'entender' la guerra Israel-Irán? Puede que le haya mentido, según un estudio
La guerra de los 12 Días entre Israel e Irán ha terminado Y mientras los misiles eran disparados, los usuarios se volcaron a Grok para 'informarse', pero usar la IA no siempre es una buena idea.

Una bandera de Irán hondea en un edificio que fue impactado por un misil de Israel, durante el alto al fuego, el 25 de junio de 2025.
- Foto
Abedin Taherkenareh / EPA / EFE
Actualizada:
Compartir:
Grok, el chatbot de inteligencia artificial (IA) de la empresa xAI de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar la información sobre la Guerra de los 12 días entre Israel e Irán, concluyó un estudio.
Con la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook, cada vez más internautas recurren a herramientas de inteligencia artificial (IA) como Grok para encontrar información 'fiable', pero las respuestas que obtienen a veces desinforman.

Contradicciones, limitaciones e información no sustentada
Según un estudio publicado este martes por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok "durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis".
Se analizaron 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y se determinó que el chatbot de Musk "tenía dificultades para autentificar el contenido generado por la IA".

Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.
En algunas respuestas Grok afirmó falsamente que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán.
Una mala opción para 'informarse'
Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump.
El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un "genocidio blanco" en Sudáfrica, error que xAI achacó posteriormente a una "modificación no autorizada".
Compartir: