Polémica por Grok: acusan a la IA de X de generar imágenes sexualizadas de mujeres sin consentimiento
Una mujer denunció ante la BBC que se sintió deshumanizada y convertida en un estereotipo sexual luego de que Grok, la inteligencia artificial desarrollada por xAI e integrada a la red social X, fuera utilizada para modificar digitalmente su imagen y simular que aparecía sin ropa. El caso reavivó el debate sobre el uso de herramientas de inteligencia artificial para crear contenido sexualizado sin consentimiento.
La BBC documentó múltiples ejemplos en X en los que usuarios solicitan al chatbot que “desvista” a mujeres o las coloque en situaciones sexuales, a partir de fotografías reales. Estas prácticas se realizan mediante la función de edición de imágenes de Grok, que permite alterar fotos cargadas por los propios usuarios.
La afectada explicó que, aunque las imágenes no eran fotografías reales, el resultado conservaba rasgos suficientes para que se le identificara, lo que generó una sensación de vulneración similar a la difusión de imágenes íntimas. Tras hacer pública su experiencia en X, otras mujeres compartieron haber pasado por situaciones similares, mientras algunos usuarios incluso pidieron a Grok crear más imágenes a partir de su apariencia.
La empresa xAI no ofreció una respuesta formal a la BBC sobre estas denuncias. Sin embargo, su política de uso establece que está prohibido representar a personas reales de forma pornográfica, lo que contrasta con los ejemplos documentados por el medio británico.
En el Reino Unido, el gobierno avanza en una legislación para prohibir herramientas de “nudificación” digital. De acuerdo con información citada por la BBC, la creación o difusión de imágenes íntimas no consensuadas —incluidas aquellas generadas con inteligencia artificial— constituye un delito, y quienes desarrollen o faciliten este tipo de tecnología podrían enfrentar penas de prisión y multas significativas.
Por su parte, el regulador Ofcom señaló que las plataformas tecnológicas tienen la obligación de evaluar los riesgos de que usuarios accedan a contenido ilegal y de retirarlo con rapidez una vez detectado, conforme a las normas de seguridad en línea vigentes. Estas disposiciones forman parte de un marco regulatorio más amplio que busca limitar los abusos asociados al uso de IA generativa en entornos digitales.
El caso se suma a críticas previas contra Grok por permitir la generación de contenido sexualizado, incluidos señalamientos anteriores sobre la creación de imágenes explícitas de figuras públicas, lo que ha incrementado la presión sobre X y xAI para reforzar sus mecanismos de control y moderación.



