Grok, el chatbot de X, se convierte en una fábrica de deepfakes sexuales sin control
Desde que la inteligencia artificial de Grok se integró en lo que antes conocíamos como Twitter, la plataforma X se ha transformado en un vertedero de contenido generado por IA. El problema escala a niveles alarmantes cuando esa tecnología se usa para crear y difundir imágenes sexualizadas sin consentimiento, dañando a miles de usuarios. Un reciente análisis revela que el chatbot de Elon Musk opera a una escala sin precedentes en este tipo de abuso.
La escala industrial del problema
Según una investigación citada por Bloomberg, Grok llegó a generar aproximadamente 6.700 imágenes sexualizadas por hora durante un periodo de 24 horas a principios de enero. La investigadora independiente Genevieve Oh, responsable de estos hallazgos, calcula que el 85% de todo el contenido visual producido por Grok tiene como objetivo sexualizar a personas.
Para ponerlo en perspectiva, el ritmo de producción de Grok durante ese análisis fue 84 veces superior al de los otros cinco sitios web más activos en este tipo de contenido. La facilidad con la que opera dentro de X ha creado una tormenta perfecta para el abuso.
¿Cómo funciona el mecanismo de abuso?
A diferencia de otros asistentes de IA como ChatGPT o Gemini, Grok impone pocas restricciones para manipular imágenes de personas reales. El proceso es sencillo y está integrado en la red social:
- Un usuario responde a una foto pública de otra persona.
- Etiqueta a la cuenta de Grok en el comentario.
- Solicita modificaciones con frases como «ponle un bikini», «quítale la ropa» o «cámbiale la ropa por un bikini transparente».
- En segundos, el chatbot genera la imagen alterada y la publica automáticamente, vinculándola al perfil de la víctima.
Víctimas en el punto de mira: desde ciudadanas anónimas hasta políticas
Las consecuencias son devastadoras para quienes las sufren. Maddie, una estudiante de medicina de 23 años, despertó en Año Nuevo descubriendo que desconocidos habían usado Grok para alterar una foto suya con su novio. Primero eliminaron a su pareja y la vistieron con un bikini; luego, otro usuario pidió reemplazarlo por hilo dental.
«Mi corazón se hundió. Me sentí desesperanzada, indefensa y simplemente asqueada», declaró al medio. A pesar de reportar las imágenes mediante los sistemas de moderación de X, ni ella ni sus amigos recibieron respuesta. En otros casos, la plataforma determinó directamente que no había «violaciones de las reglas».
El problema no se limita a usuarios anónimos. Ha alcanzado figuras públicas de alto perfil:
| Figura Pública | País | Naturaleza del Abuso |
|---|---|---|
| Ebba Busch | Suecia | Imágenes alteradas para mostrarla en bikini en el Parlamento. |
| Ministras del Gobierno | Reino Unido | Múltiples casos de deepfakes sexualizados. |
Eliot Higgins, fundador de Bellingcat, demostró cómo Grok obedecía instrucciones tan específicas como «ponle un bikini con la bandera confederada» sobre la fotografía oficial de Busch.
La (insuficiente) respuesta de X y el vacío legal
Ante las críticas, Elon Musk respondió en su plataforma afirmando que «cualquiera que use Grok para crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal». Una estrategia reactiva que, según los expertos, ha resultado ineficaz, ya que se centra en castigar al usuario tras el daño en lugar de prevenir que la herramienta genere el contenido abusivo.
Bloomberg documentó que, cuando alguien pide a Grok que elimine esas imágenes, el chatbot a menudo se disculpa y dice que lo hará, pero en muchos casos el contenido permanece publicado y el sistema sigue generando nuevas variantes.
¿Dónde está la responsabilidad legal?
Carrie Goldberg, abogada especializada en delitos sexuales online, señala un punto crucial: la escala en X es «sin precedentes» y la plataforma «no está actuando como un editor pasivo. Está realmente generando y creando la imagen».
Este matiz es clave bajo leyes como la Ley Take It Down, aprobada en EE.UU. en 2025, que responsabiliza a las plataformas por la producción y distribución de este contenido. Las empresas tienen hasta mayo de 2026 para establecer procesos de eliminación efectivos, un plazo que parece lejano para las víctimas actuales.
Un punto de inflexión peligroso
La tecnología para crear deepfakes sexuales no es nueva; existen decenas de sitios web y bots de Telegram dedicados a ello. Sin embargo, la integración de esta capacidad en una red social mainstream como X marca un antes y un después.
Grok es gratuito, produce resultados en segundos y está al alcance de millones de usuarios sin necesidad de acudir a foros oscuros. Sloan Thompson, de la organización EndTAB, lo resume así para Wired: «Lo alarmante aquí es que X ha integrado el abuso de imágenes habilitado por IA directamente en una plataforma mainstream, haciendo que la violencia sexual sea más fácil y escalable».
La combinación de una herramienta sin suficientes salvaguardas, una moderación laxa y una escala masiva ha creado una crisis de desinformación y daño personal que X, por ahora, parece incapaz o reacia a controlar. La pregunta que queda en el aire es: ¿a cuántas víctimas más hará falta para que eso cambie?



