La función 'picante' de Grok de Elon Musk genera ola de deepfakes sexuales no consentidos
Grok de Elon Musk genera ola de deepfakes sexuales no consentidos

La función 'picante' de Grok desata crisis global por deepfakes sexuales no consentidos

Desde finales de diciembre de 2025, con una viralización masiva durante enero de 2026, una función denominada 'picante' del modelo de inteligencia artificial Grok, el chatbot de la plataforma X propiedad de Elon Musk, generó un profundo malestar social a nivel mundial. Esta herramienta facilitó la creación de deepfakes no consentidos de mujeres e incluso de menores de edad, mediante imágenes altamente realistas y sexualizadas que se propagaron rápidamente por Internet.

El mecanismo de generación de contenido degradante

Con una simple solicitud en la plataforma X, cualquier usuario podía generar o editar imágenes y videos cortos de personas reales en lo que la empresa describe como una 'atmósfera audaz orientada a adultos'. El modo picante fue presentado como una 'interpretación menos filtrada y más provocativa, con un alto rango dinámico y emoción pura'. Aunque formalmente no permitían desnudos explícitos, esta restricción resultó ser completamente inocua: bastaba con solicitar bikinis mínimos y transparentes para eludir las limitaciones.

A medida que los usuarios fueron descubriendo el potencial completo de la herramienta, las imágenes degradantes iniciales fueron superadas por contenido aún más preocupante. Las solicitudes comenzaron a incluir símbolos nazis en los bikinis, expresiones faciales lascivas o manchas de semen simuladas, entre otros elementos ofensivos. Como era previsible, la plataforma se inundó rápidamente de contenido degradante e ilícito que violaba múltiples normativas internacionales.

Respuestas tardías e insuficientes

La situación provocó una indignación internacional sin precedentes, investigaciones en múltiples países, bloqueos regionales de la función y críticas contundentes de autoridades gubernamentales. X implementó restricciones progresivas, primero limitando esta función exclusivamente para clientes de pago, y posteriormente imponiendo barreras técnicas para impedir que Grok produjera ese tipo de ediciones en países 'donde es ilegal'.

Sin embargo, tanto las respuestas de la empresa como las de los gobiernos afectados fueron percibidas como tardías e insuficientes por la sociedad civil y las víctimas. Las personas que denunciaban los abusos sufrían nuevas oleadas de acoso digital, mientras crecían exponencialmente las demandas por una 'regulación contundente' que enfrentara la impunidad estructural de las grandes plataformas tecnológicas.

Un problema con décadas de historia que se amplifica con la IA

El desafío no es nuevo en absoluto; lo que cambia radicalmente es la escala, velocidad y alcance que introduce la inteligencia artificial generativa. Desde hace más de dos décadas existe un consenso claro internacional: el material de abuso sexual infantil es inaceptable también en internet. Este consenso permitió el desarrollo de regulaciones específicas, marcos de cooperación entre plataformas y autoridades, con mecanismos de remoción de contenido y persecución penal.

Posteriormente, la sociedad civil evidenció que la violencia digital afecta de manera desproporcionada a las mujeres, lo que generó atención regulatoria para las diversas formas de violencia, incluyendo la que se deriva del contenido sexual no consentido. Sin embargo, era previsible que la IA generativa amplificara estos fenómenos, pues reduce costos, elimina barreras técnicas y convierte la producción de pornografía manipulada y no consentida en un acto instantáneo.

La impunidad estructural de las grandes plataformas

Lo verdaderamente alarmante del caso de Grok es la impunidad estructural que revela. Pese a consensos internacionales y normativas existentes, las grandes plataformas y sus propietarios operan con escasa rendición de cuentas. Los cuerpos de mujeres, niños, niñas y adolescentes siguen siendo instrumentalizados en la economía digital sin consecuencias significativas para los responsables.

Desde que X (antes Twitter) pasó a ser propiedad de Elon Musk, desapareció sustancialmente la perspectiva de derechos humanos de la plataforma, defendiendo conceptos de libertad de expresión según el acomodo del dueño. Esto plantea preguntas fundamentales: ¿Cuál fue el análisis de impacto en derechos humanos que realizaron antes de desplegar la función picante? ¿Tienen auditorías independientes periódicas que identifiquen riesgos de abusos en sus funcionalidades? ¿Existen registros y trazabilidad de solicitudes de alto riesgo con mecanismos para tramitarlos adecuadamente?

Preguntas críticas sin respuesta

Frente a esta crisis, emergen interrogantes cruciales:

  • ¿Qué capacidad institucional y política tenemos como sociedad para hacer exigibles las normas frente a actores tecnológicos con poder transnacional?
  • ¿Cuáles son los países en donde lo que facilitó Grok no es ilegal?
  • ¿No tiene acaso la plataforma obligaciones de debida diligencia frente a actos ilegales?
  • ¿Qué necesitamos para aplicar efectivamente las normas ya existentes?
  • ¿Qué requieren las fiscalías y demás responsables de investigar la violencia digital?
  • ¿Cómo fortalecemos los mecanismos de preservación de evidencia digital?

Hacia soluciones integrales más allá de lo punitivo

El problema no es únicamente tecnológico ni exclusivamente penal. Abarca dimensiones de gobernanza, incentivos económicos, asimetrías de poder y cultura social y política. Es fundamental fortalecer la capacidad institucional, de lo contrario cada avance tecnológico reactivará el mismo ciclo de daño, indignación pública y regulación tardía.

Como mínimo, debemos consolidar una cultura cívica orientada al bien común que haga social y políticamente exigible a los actores del ecosistema digital -en este caso, a quienes desarrollan inteligencia artificial generativa- las evaluaciones rigurosas de impacto en derechos humanos antes de desplegar nuevas funcionalidades. No todo lo técnicamente posible es legal, tampoco socialmente aceptable. La respuesta puramente punitiva ha demostrado ser insuficiente; una vez la imagen está en internet es casi imposible retirarla completamente, por lo que se requiere aplicación efectiva de las normas existentes, mecanismos de corrección de errores y sanción real a los victimarios.