Jul 16, 2025
El drama de Grok
Grok, el chatbot de IA de Elon Musk, se ha visto plagado de controversias por sus respuestas a los usuarios.
Esta situación ha suscitado preguntas sobre cómo las empresas tecnológicas buscan moderar el contenido de la IA y si Washington debería desempeñar un papel en el establecimiento de directrices.
Grok fue objeto de un intenso escrutinio la semana pasada, después de que una actualización provocará que el chatbot de IA produjera respuestas antisemitas y elogiara a Adolf Hitler. La empresa de IA de Musk, xAI, eliminó rápidamente numerosas publicaciones incendiarias y afirmó haber añadido medidas de seguridad para “prohibir el discurso de odio” en el chatbot.
Apenas unos días después, xAI presentó su nueva versión de Grok, que según Musk era el “modelo de IA más inteligente del mundo”. Sin embargo, los usuarios pronto descubrieron que el chatbot parecía basarse en las opiniones de su propietario para responder a consultas controvertidas.

Chris MacKenzie
Chris MacKenzie, Vicepresidente de Comunicaciones de Americans for Responsible Innovation, un grupo de defensa centrado en políticas de IA, declaró “Deberíamos estar sumamente preocupados de que el modelo de IA con mejor rendimiento del mercado esté alineado con Hitler. Esto debería ser la alarma.
“Creo que nos encontramos en un momento en el que los modelos de IA aún no son increíblemente sofisticados”, continuó. Puede que tengan acceso a mucha información, ¿verdad? Pero en cuanto a su capacidad para cometer actos maliciosos, todo es muy evidente y no es muy sofisticado.
“Tenemos mucho margen para abordar este comportamiento desalineado antes de que se vuelva mucho más difícil de detectar”.
Lucas Hansen, cofundador de la organización sin ánimo de lucro CivAI, cuyo objetivo es proporcionar información sobre las capacidades y los riesgos de la IA, afirmó que no era “en absoluto sorprendente” que Grok se comportara como lo hizo.
“Cualquier modelo de lenguaje se puede comportar como se desee, independientemente de las restricciones vigentes”, declaró a The Hill.
Musk anunció la semana pasada que xAI había actualizado Grok, tras haber expresado previamente su frustración con algunas de las respuestas del chatbot.
A mediados de junio, el magnate tecnológico cuestionó una respuesta de Grok que sugería que la violencia de derecha se había vuelto más frecuente y mortal desde 2016. Musk afirmó que el chatbot estaba “repitiendo lo que decían los medios tradicionales” y dijo que estaba “trabajando en ello”.
Posteriormente, indicó que estaba reentrenando el modelo e instó a los usuarios a ayudar a proporcionar “datos divisivos”, que definió como “cosas políticamente incorrectas, pero que, sin embargo, son factualmente ciertas”.
La actualización causó controversia en xAI, ya que Grok comenzó a hacer generalizaciones sobre las personas con apellidos judíos y a perpetuar estereotipos antisemitas sobre Hollywood.
Check out the full report at TheHill.com