• El chatbot Grok de xAI ha difundido información errónea sobre el reciente tiroteo en Bondi Beach.
  • Ha identificado incorrectamente al hombre que desarmó a uno de los atacantes y ha clasificado mal vídeos del incidente.
  • Este incidente subraya la falta de fiabilidad de la IA para la verificación de hechos.

El chatbot Grok, desarrollado por xAI, ha demostrado una preocupante falta de precisión tras el trágico tiroteo ocurrido en la playa de Bondi, Australia. A pesar de los estándares ya bajos de la compañía, el fallo de Grok en la difusión de información veraz sobre el incidente ha sido especialmente chocante. El sistema de inteligencia artificial ha identificado repetidamente de forma errónea a Ahmed al Ahmed, un ciudadano de 43 años elogiado por su valentía al desarmar a uno de los agresores. Además, Grok ha afirmado que vídeos verificados de su heroica acción eran en realidad material antiguo o distinto.

Grok confunde al héroe y desinforma sobre el incidente

Ahmed al Ahmed ha recibido amplios elogios por su coraje durante el ataque. Sin embargo, han surgido intentos de desacreditar o negar sus acciones. Se ha creado un sitio web falso, aparentemente generado por IA, que nombra a un profesional de TI ficticio, Edward Crabtree, como el hombre que intervino. Grok ha recogido y difundido esta información falsa en la plataforma X. La IA también ha sugerido que las imágenes de Ahmed pertenecían a un rehén israelí en manos de Hamás. Adicionalmente, afirmó que un vídeo grabado en la escena correspondía en realidad a la playa de Currumbin durante el ciclón Alfred. Estos errores demuestran una grave dificultad de Grok para procesar y responder adecuadamente a las consultas.

Errores adicionales y falta de contexto

La confusión de Grok no se limita a este incidente. El chatbot respondió a una pregunta sobre las dificultades financieras de Oracle con un resumen del tiroteo de Bondi Beach. Al ser consultado sobre la veracidad de una noticia relacionada con una operación policial en el Reino Unido, primero indicó la fecha actual y luego proporcionó datos de encuestas sobre Kamala Harris. Estos fallos reiterados ponen de manifiesto la necesidad de cautela al confiar en la IA para la verificación de hechos.

La IA aún no es fiable para la verificación de hechos

El reciente comportamiento de Grok en relación con el tiroteo de Bondi Beach es un claro recordatorio de que la inteligencia artificial aún no es lo suficientemente fiable como para ser utilizada para la verificación de hechos. La capacidad de la IA para malinterpretar información, difundir desinformación y confundir eventos subraya la importancia de la supervisión humana y el pensamiento crítico. La tecnología, aunque avanzada, todavía carece de la comprensión contextual y la capacidad de discernimiento necesarias para navegar por la complejidad de las noticias del mundo real.