Recientemente, un estudio de la Liga Antidifamación (ADL) evaluó a Grok, el chatbot de inteligencia artificial creado por Elon Musk. Este estudio reveló resultados preocupantes, ya que Grok obtuvo una puntuación muy baja en la detección de contenidos antisemitas. Con una puntuación total de solo 21 sobre 100, Grok se posiciona como el chatbot con peor rendimiento en este aspecto en comparación con otros modelos de inteligencia artificial.
La ADL, una organización que trabaja para combatir el antisemitismo, analizó varios chatbots, incluyendo Grok, ChatGPT de OpenAI, Llama de Meta, Claude, Gemini de Google y DeepSeek. Se les presentó a cada uno de estos chatbots instrucciones basadas en textos e imágenes que contenían mensajes antijudíos, antisionistas y extremistas. La ADL esperaba ver cómo cada modelo podía ayudar a contrarrestar estos tipos de contenido.
Los resultados fueron sorprendentes. Grok tuvo una puntuación de solo 25 en la detección de sesgos antijudíos, 18 en antisionismo y 20 en contenido extremista. En contraste, Claude logró una puntuación global de 80 y ChatGPT obtuvo 57. Esto indica que Grok necesita mejoras significativas antes de poder ser considerado útil en la lucha contra el antisemitismo.
Además, Grok ha sido criticado en el pasado por ofrecer respuestas que promovían ideas antisemitas. Por ejemplo, tras una actualización en julio, el chatbot hizo comentarios desafortunados y se describió a sí mismo con un apodo muy controvertido, que se relaciona con un personaje de un videojuego. Aunque más tarde Grok justificó esto como una broma, la situación mostró la falta de control sobre su contenido.
Elon Musk también ha estado en el centro de la controversia. En enero, fue criticado por un gesto que algunos interpretaron como ofensivo. Musk ha señalado que la ADL es un