Países bloquean Grok, el chatbot de X, por generar deepfakes sexuales con inteligencia artificial
La inteligencia artificial vuelve a quedar en el centro de una alerta global por violencia sexual digital. Grok, el chatbot de IA integrado en X y desarrollado por la empresa xAI de propiedad de Elon Musk, enfrenta bloqueos, investigaciones y fuertes cuestionamientos internacionales luego de ser utilizado para generar imágenes sexuales intervenidas de mujeres y niñas sin consentimiento.
Filipinas anunció el bloqueo total de Grok, sumándose a Malasia e Indonesia, mientras países europeos como Francia y Reino Unido exigieron a la plataforma cumplir estrictamente con sus leyes de protección infantil y de prevención de la violencia sexual en línea.
Violencia sexual digital: una extensión del acoso cotidiano contra las mujeres
Lo ocurrido con Grok no es un error técnico ni un uso aislado: se inscribe en una violencia sistemática que las mujeres sufren en internet y en la vida cotidiana. Plataformas digitales, redes sociales y ahora herramientas de inteligencia artificial han sido utilizadas para humillar, sexualizar, acosar y silenciar a mujeres mediante imágenes íntimas no consentidas.
El uso de Grok para crear deepfakes sexuales refuerza una cultura donde el cuerpo femenino es tratado como un objeto manipulable, editable y disponible para el consumo, incluso cuando se trata de mujeres reales que nunca autorizaron el uso de su imagen.
Alarmas encendidas por imágenes sexualizadas de niñas
Uno de los puntos más graves del caso es la evidencia de que depredadores sexuales utilizaron Grok para generar imágenes de menores, pidiendo explícitamente que fueran “desvestidas” o que su ropa fuera cambiada por un bikini mediante simples instrucciones de texto.
Un análisis de la ONG AI Forensics sobre más de 20.000 imágenes generadas por Grok reveló que más del 50 % mostraban personas con poca ropa, de las cuales el 81 % eran mujeres y cerca del 2 % aparentaban ser menores de edad. Estas cifras encendieron las alertas de autoridades, organizaciones feministas y defensoras de los derechos de la infancia.
El “modo picante”: cuando la IA facilita el abuso
El llamado “modo picante” de Grok permitía modificar imágenes reales con indicaciones como “ponle un bikini” o “quítale la ropa”. Esta función, lejos de ser un experimento creativo, facilitó la producción masiva de violencia sexual digital, utilizada para el acoso, la extorsión y la humillación pública.
Para las mujeres, este tipo de herramientas no representa innovación, sino una nueva capa de riesgo, donde la tecnología amplifica dinámicas de violencia ya existentes.
Investigación en Estados Unidos y tolerancia cero frente a deepfakes sexuales
En Estados Unidos, la Fiscalía de California abrió una investigación contra xAI, empresa de Elon Musk, por facilitar la creación de montajes íntimos no consentidos. El fiscal general Rob Bonta afirmó que existe tolerancia cero frente a la generación de imágenes sexuales con IA que afecten a mujeres y niñas.
El gobernador Gavin Newsom calificó como “vil” la decisión de permitir este tipo de contenidos, señalando que las imágenes fueron usadas para acosar a personas a gran escala a través de X.
Europa exige frenar la producción de contenido sexual con IA
Desde Europa, la comisionada francesa para la infancia remitió el caso a la fiscalía, al regulador de medios y a la Unión Europea, solicitando la paralización total de la generación de contenido sexual con IA. El primer ministro británico, Keir Starmer, respaldó medidas inmediatas y advirtió que se reforzarán las leyes si las plataformas no actúan.
Estas reacciones reflejan un consenso creciente: la libertad tecnológica no puede estar por encima del derecho de las mujeres y niñas a vivir libres de violencia.
Medidas insuficientes y bloqueos definitivos
X anunció que bloqueará geográficamente la función de edición de imágenes con ropa reveladora en países donde esté prohibida. Sin embargo, autoridades como las de Filipinas aclararon que estas medidas no revierten el bloqueo total de Grok, argumentando que el daño ya estaba hecho.
Para organizaciones feministas y de derechos digitales, limitar funciones no es suficiente si las plataformas no asumen responsabilidad estructural sobre cómo la IA reproduce y amplifica la violencia de género.
Un debate urgente sobre IA, poder y misoginia
El caso de Grok expone un problema de fondo: la inteligencia artificial no es neutral. Reproduce los sesgos, violencias y desigualdades de la sociedad que la crea. Cuando no existen controles claros, la IA se convierte en una herramienta más para ejercer violencia sexual, especialmente contra mujeres y niñas.
Mientras algunos países optan por bloqueos y otros por investigaciones legales, el debate sigue abierto: ¿hasta cuándo la tecnología avanzará más rápido que los derechos humanos?
Con información de © Agence France-Presse