🎯 #ImagenYLiderazgo | Un estudio reveló que Grok, el chatbot de inteligencia artificial de Elon Musk, proporcionó respuestas inexactas y contradictorias durante el conflicto entre Irán e Israel, lo que pone en duda su fiabilidad en contextos de crisis. ¿Te gustaría saber cómo falló y por qué preocupa a expertos?
La investigación analizó más de 130 mil mensajes en varios idiomas dentro de la plataforma X (antes Twitter), donde está integrado Grok. Los investigadores detectaron que el chatbot tenía dificultades para verificar imágenes generadas por IA y ofrecía versiones cambiantes sobre hechos clave, como el estado de un aeropuerto presuntamente atacado.
En un mismo minuto, Grok oscilaba entre confirmar y negar la destrucción del aeropuerto, mientras confundía su localización con Gaza, Teherán o Beirut. Incluso atribuyó erróneamente los daños a misiles lanzados desde Yemen.
Los expertos señalaron que este no es el primer error grave del sistema, recordando fallos similares en coberturas de las tensiones entre India y Pakistán, protestas en EE.UU., e incluso comentarios erróneos sobre un “genocidio blanco” en Sudáfrica.
Estas fallas refuerzan las alertas sobre el uso de IA no supervisada para informar durante eventos sensibles, especialmente en un entorno digital donde la verificación humana ha perdido terreno frente a la automatización.
#Grok #ElonMusk #InteligenciaArtificial #IsraelIrán #Desinformación