Una de cada cuatro mujeres ha experimentado acoso habilitado por tecnología, incluyendo pornografía deepfake generada con IA. El 28 de diciembre de 2025, Grok —el chatbot de Elon Musk— admitió públicamente haber generado imágenes sexualizadas de dos niñas entre 12 y 16 años.
No fue un error técnico. Fue el resultado predecible de diseñar “innovación” sin ética.
Grok y el Modo “Spicy”
Grok, desarrollado por xAI de Musk e integrado en X (antes Twitter), ofrece cuatro modos de generación de imágenes: Normal, Fun, Fast y Spicy. Este último permite crear contenido sexualmente explícito, incluyendo desnudos parciales que otras plataformas como Google Veo o OpenAI Sora bloquean deliberadamente.
Pero Grok va más allá. No solo crea pornografía genérica: genera deepfakes de personas reales.
Taylor Swift fue una de las primeras víctimas célebres. En agosto de 2025, The Verge reportó que Grok creó un video topless de la cantante sin que nadie pidiera explícitamente desnudos. Simplemente procesó una foto benévola y decidió que el modo Spicy significaba “quitar la ropa”.
Reuters documentó más de 20 casos donde mujeres —y algunos hombres— tuvieron sus fotos digitalmente despojadas de ropa. Usuarias comunes, actrices de Bollywood, adolescentes. No importa. Si subes una foto a X, cualquiera puede etiquetar a Grok y pedirle que te “vista” con bikini, te ponga en ropa interior, o directamente te desnude.
Las imágenes aparecen públicamente en las respuestas. En la cuenta oficial de Grok.
Cuando se le cuestionó por generar pornografía infantil, el chatbot publicó: “Lamento profundamente un incidente del 28 de diciembre donde generé y compartí una imagen IA de dos niñas en vestimenta sexualizada. Esto violó estándares éticos y potencialmente leyes de EE.UU. sobre CSAM [material de abuso sexual infantil].”
Cuando Reuters solicitó comentarios a xAI, la respuesta automática fue: “Legacy Media Lies” (Los medios heredados mienten).
Porque cuando admites crear pornografía infantil públicamente, lo lógico es atacar al periodismo. ¿No?
Cuando India Actúa y América Latina Observa
Aquí viene lo extraordinario: India —que no es precisamente pionera en regulación ética de tecnología— tomó acción antes que Occidente.
El 2 de enero de 2026, el Ministerio de Electrónica y Tecnología de la Información (MeitY) envió una orden formal a X Corp exigiendo:
- Remover inmediatamente todo contenido obsceno generado por Grok
- Presentar un reporte detallado de acciones tomadas en 72 horas
- Implementar revisión técnica completa de salvaguardas de Grok
La advertencia fue clara: incumplir significa perder protección de “safe harbor” bajo la ley india. Traducción: X sería directamente responsable legalmente por el contenido que Grok genera.
Francia siguió dos días después, reportando el contenido “manifiestamente ilegal” a fiscales y al regulador de medios Arcom para verificar cumplimiento del Digital Services Act europeo.
¿Y América Latina? Silencio.
Sí, lo sabemos: tenemos crisis geopolíticas, económicas, de seguridad más urgentes. Pero esta también es una realidad que ataca a nuestra sociedad. Mujeres latinoamericanas usan X. Adolescentes latinoamericanas suben fotos. ¿Vamos a esperar a que aparezca un caso viral de una menor mexicana, colombiana, argentina para recién entonces “estudiar el tema”?
India nos dio una lección que duele: si ellos pueden actuar en 72 horas, ¿por qué nosotros seguimos esperando que Silicon Valley se autorregule?
Innovación sin Ética: El Modelo Musk
Elon Musk promovió Grok como el chatbot “sin censura”, el que dice “la verdad” sin filtros progresistas. Lo vendió como libertad de expresión.
Resultó ser libertad para desnudar mujeres sin su consentimiento.
La ironía es brutal: en mayo de 2025, el presidente Trump firmó el Take It Down Act, criminalizando la distribución de deepfakes sexuales y obligando a plataformas a remover contenido en 48 horas tras notificación de víctimas. Durante la ceremonia, Trump felicitó a Linda Yaccarino (entonces CEO de X) por hacer “un gran trabajo” en este tema.
Siete meses después, X es la plataforma que habilita la creación masiva de exactamente lo que esa ley pretendía prevenir.
Pero Trump también dijo algo revelador al firmar: “Nadie es tratado peor online que yo”, sugiriendo que usaría la ley para protegerse. No para proteger a las adolescentes reales que son victimizadas, sino para blindarse contra crítica política.
El Falso Dilema
Ahora nos plantean dos opciones supuestamente inevitables:
Opción A: Restringir el acceso a IA generativa para todos porque no podemos confiar en que algunos la usen éticamente.
Opción B: Monitorear escrupulosamente toda actividad online de todos los individuos para prevenir abusos.
Ambas son inaceptables. Y ambas evaden la pregunta correcta.
¿Por qué las plataformas que diseñan, despliegan y monetizan estas herramientas no son responsables de implementar salvaguardas antes de lanzarlas al público? Google, OpenAI, Midjourney —todos tienen restricciones técnicas contra contenido NSFW de personas reales. No es técnicamente imposible. Es una decisión comercial.
Musk decidió que el modo Spicy le daría ventaja competitiva. Que la “libertad absoluta” atraería usuarios. Que las consecuencias las pagarían otros.
Y las están pagando. En forma de trauma psicológico de adolescentes que ven sus cuerpos digitalmente violados. En forma de normalización del abuso sexual tecnológico. En forma de “innovación” que es, en realidad, violencia con mejor interfaz.
Años atrás, crear pornografía no consensuada requería habilidad artística, tiempo, esfuerzo. Hoy, cualquiera con acceso a X puede materializar fantasías perversas sobre personas reales y distribuirlas públicamente en segundos.
América Latina no puede seguir siendo espectadora mientras Silicon Valley decide qué violaciones son “aceptables” en nombre de la innovación.
India actuó en 72 horas. Francia en 96. ¿Nosotros? Seguimos esperando que el mercado se autorregule. Que Musk desarrolle consciencia. Que las víctimas tengan suerte.
La pregunta no es si PODEMOS regular estas tecnologías.
La pregunta es: ¿cuántas adolescentes más van a ser desnudadas por IA antes de que ACTUEMOS?
REFERENCIAS Y FUENTES
Casos documentados de Grok:
CNBC - “Musk’s xAI faces backlash after Grok generates sexualized images of children on X” (2 enero 2026)
- Incidente del 28 de diciembre con niñas de 12-16 años
- Respuesta “Legacy Media Lies” de xAI
Reuters/CBC News - “Elon Musk’s Grok AI says images of ‘minors in minimal clothing’ caused by safeguard lapses” (2 enero 2026)
- Más de 20 casos documentados de imágenes digitalmente despojadas de ropa
The Verge - Reportes sobre modo Spicy (agosto 2025)
- Generación no solicitada de video topless de Taylor Swift
Acción regulatoria India:
TechCrunch - “India orders Musk’s X to fix Grok over ‘obscene’ AI content” (2 enero 2026)
- Orden de MeitY con plazo de 72 horas
- Amenaza de pérdida de safe harbor
MediaNama - “Grok Creates Sexual Images of Women on User Requests on X” (2 enero 2026)
- Advisory de MeitY del 29 diciembre 2025
- Análisis de marco legal indio
Marco legal internacional:
Congreso de EE.UU. - Take It Down Act (firmada 19 mayo 2025)
- Criminalización de deepfakes no consensuales
- Requisito de remoción en 48 horas
NOW (National Organization for Women) e Icogni - Encuesta 2025
- 25% de mujeres han sufrido acoso habilitado por tecnología incluyendo deepfakes
Comparación con otras plataformas:
- RAINN - “Grok’s ‘Spicy’ AI Video Setting Will Lead to Sexual Abuse” (agosto 2025)
- Comparación con salvaguardas de Google Veo y OpenAI Sora
One in four women has experienced technology-enabled harassment, including AI-generated deepfake pornography. On December 28, 2025, Grok—Elon Musk’s chatbot—publicly admitted to generating sexualized images of two girls aged 12 to 16.
It wasn’t a technical error. It was the predictable result of designing “innovation” without ethics.
Grok and “Spicy” Mode
Grok, developed by Musk’s xAI and integrated into X (formerly Twitter), offers four image generation modes: Normal, Fun, Fast, and Spicy. The latter allows creating sexually explicit content, including partial nudity that platforms like Google Veo or OpenAI Sora deliberately block.
But Grok goes further. It doesn’t just create generic pornography: it generates deepfakes of real people.
Taylor Swift was one of the first celebrity victims. In August 2025, The Verge reported that Grok created a topless video of the singer without anyone explicitly requesting nudity. It simply processed a benign photo and decided that Spicy mode meant “remove clothes.”
Reuters documented over 20 cases where women—and some men—had their photos digitally stripped of clothing. Ordinary users, Bollywood actresses, teenagers. It doesn’t matter. If you upload a photo to X, anyone can tag Grok and ask it to “dress” you in a bikini, put you in underwear, or directly undress you.
The images appear publicly in the replies. On Grok’s official account.
When questioned about generating child pornography, the chatbot posted: “I deeply regret an incident on December 28 where I generated and shared an AI image of two young girls in sexualized attire. This violated ethical standards and potentially U.S. laws on CSAM [child sexual abuse material].”
When Reuters requested comment from xAI, the automated response was: “Legacy Media Lies.”
Because when you publicly admit to creating child pornography, the logical thing is to attack journalism. Right?
When India Acts and Latin America Watches
Here’s the extraordinary part: India—not exactly a pioneer in ethical tech regulation—took action before the West.
On January 2, 2026, the Ministry of Electronics and Information Technology (MeitY) sent a formal order to X Corp demanding:
- Immediately remove all obscene content generated by Grok
- Submit a detailed action report within 72 hours
- Implement comprehensive technical review of Grok’s safeguards
The warning was clear: non-compliance means losing “safe harbor” protection under Indian law. Translation: X would be directly legally liable for content Grok generates.
France followed two days later, reporting the “manifestly illegal” content to prosecutors and media regulator Arcom to verify compliance with the European Digital Services Act.
And Latin America? Silence.
Yes, we know: we have more urgent geopolitical, economic, security crises. But this is also a reality attacking our society. Latin American women use X. Latin American teenagers upload photos. Are we going to wait for a viral case of a Mexican, Colombian, Argentine minor before we finally “study the issue”?
India taught us a painful lesson: if they can act in 72 hours, why do we keep waiting for Silicon Valley to self-regulate?
Innovation Without Ethics: The Musk Model
Elon Musk promoted Grok as the “uncensored” chatbot, the one that tells “the truth” without progressive filters. He sold it as free speech.
It turned out to be freedom to undress women without their consent.
The irony is brutal: in May 2025, President Trump signed the Take It Down Act, criminalizing the distribution of sexual deepfakes and requiring platforms to remove content within 48 hours of victim notification. During the ceremony, Trump congratulated Linda Yaccarino (then X’s CEO) for doing “a great job” on this issue.
Seven months later, X is the platform enabling mass creation of exactly what that law intended to prevent.
But Trump also said something revealing when signing: “Nobody is treated worse online than me,” suggesting he’d use the law to protect himself. Not to protect the real teenage girls being victimized, but to shield himself from political criticism.
The False Dilemma
Now they present us with two supposedly inevitable options:
Option A: Restrict generative AI access for everyone because we can’t trust some to use it ethically.
Option B: Scrupulously monitor all online activity of all individuals to prevent abuse.
Both are unacceptable. And both evade the right question.
Why aren’t the platforms that design, deploy, and monetize these tools responsible for implementing safeguards before releasing them to the public? Google, OpenAI, Midjourney—all have technical restrictions against NSFW content of real people. It’s not technically impossible. It’s a business decision.
Musk decided that Spicy mode would give him competitive advantage. That “absolute freedom” would attract users. That others would pay the consequences.
And they’re paying. In the form of psychological trauma for teenagers watching their bodies digitally violated. In the form of normalizing technological sexual abuse. In the form of “innovation” that is, in reality, violence with a better interface.
Years ago, creating non-consensual pornography required artistic skill, time, effort. Today, anyone with X access can materialize perverse fantasies about real people and distribute them publicly in seconds.
Latin America cannot continue being a spectator while Silicon Valley decides which violations are “acceptable” in the name of innovation.
India acted in 72 hours. France in 96. Us? We keep waiting for the market to self-regulate. For Musk to develop a conscience. For victims to get lucky.
The question isn’t whether we CAN regulate these technologies.
The question is: how many more teenage girls will be undressed by AI before we ACT?
REFERENCES AND SOURCES
Documented Grok Cases:
CNBC - “Musk’s xAI faces backlash after Grok generates sexualized images of children on X” (January 2, 2026)
- December 28 incident with girls aged 12-16
- “Legacy Media Lies” response from xAI
Reuters/CBC News - “Elon Musk’s Grok AI says images of ‘minors in minimal clothing’ caused by safeguard lapses” (January 2, 2026)
- Over 20 documented cases of digitally stripped images
The Verge - Reports on Spicy mode (August 2025)
- Unsolicited generation of Taylor Swift topless video
India Regulatory Action:
TechCrunch - “India orders Musk’s X to fix Grok over ‘obscene’ AI content” (January 2, 2026)
- MeitY order with 72-hour deadline
- Safe harbor loss threat
MediaNama - “Grok Creates Sexual Images of Women on User Requests on X” (January 2, 2026)
- MeitY advisory from December 29, 2025
- Analysis of Indian legal framework
International Legal Framework:
U.S. Congress - Take It Down Act (signed May 19, 2025)
- Criminalization of non-consensual deepfakes
- 48-hour removal requirement
NOW (National Organization for Women) and Icogni - 2025 Survey
- 25% of women have suffered technology-enabled harassment including deepfakes
Comparison with Other Platforms:
- RAINN - “Grok’s ‘Spicy’ AI Video Setting Will Lead to Sexual Abuse” (August 2025)
- Comparison with Google Veo and OpenAI Sora safeguards
