El uso de herramientas de inteligencia artificial para generar o modificar imágenes de terceros se ha normalizado en contextos cotidianos. De esta manera, los filtros, avatares, montajes “inofensivos” o pruebas técnicas que rara vez se perciben como un problema, están en el día a día de los usuarios. Sobre todo, y con mayor incidencia, entre las mujeres y las niñas.
Esta cotidianidad en el uso, no los hace inofensivos, sino al contrario. La guía publicada por la Agencia Española de Protección de Datos (AEPD) titulada ‘El uso de imágenes de terceros en sistemas de inteligencia artificial y sus riesgos visibles e invisibles’ advierte de un impacto real y que, claramente, es desigual sobre mujeres y niñas.

La imagen personal también es un dato
La AEPD recuerda que cualquier imagen en la que una persona sea identificable —aunque esté alterada o generada por IA— constituye un dato personal. Por tanto, subir una fotografía de una tercera persona a un sistema de IA, incluso sin difundir el resultado, supone un tratamiento de datos que, en la mayoría de los casos, se realiza sin conocimiento ni control de la persona afectada.
Entre los impactos visibles, la guía identifica señales de riesgo especialmente relevantes desde el enfoque de género. La sexualización sintética ocupa un lugar central ya que se centra mayoritariamente en la generación de desnudos, escenas íntimas o insinuaciones sexuales a partir de imágenes neutras.
Chantaje, humillación, violencia digital son algunos de los peligros que la subida de imágenes a las redes sociales puede causar en mujeres y niñas por la falta de control de la usuaria.
Todo ello se considera un riesgo muy alto, por su potencial de humillación, chantaje y violencia digital, hacia las mujeres. Aunque muchas plataformas imponen límites, la AEPD subraya que estos no eliminan por completo el peligro, sobre todo cuando los contenidos parecen realistas o se reutilizan fuera del contexto inicial.
En el fondo de la cuestión, está la difusión de imágenes sexualizadas generadas a través de Grok, la red social de X, propiedad del magnate Elon Musk.
Los ‘deepfakes’ atentan contra el honor
Otro riesgo clave es la atribución de hechos no reales como imágenes o vídeos generados con IA. Desde la perspectiva de género, estos pueden presentar a una mujer en situaciones verosímiles pero falsas, con consecuencias directas sobre su reputación, su entorno laboral o su seguridad personal. La descontextualización de esta información, además, amplifica este daño, incluso cuando el uso inicial se pretendía humorístico o banal.

La guía, pues, introduce además un criterio esencial que tiene que ver con la vulnerabilidad de la persona afectada. Pero también con menores, personas mayores, mujeres con discapacidad o en contextos de dependencia requieren un umbral de prudencia máximo.
En estos casos, un uso aparentemente inocente puede derivar en acoso, estigmatización o violencia digital, con efectos acumulativos.
Sin control de los datos personales
Más allá de lo visible, la AEPD detalla riesgos menos perceptibles, pero estructurales, por ejemplo, al subir una imagen a un sistema de IA. En estos casos, se produce una pérdida efectiva de control ya que intervienen proveedores tecnológicos, servicios en la nube y sistemas de seguridad que pueden conservar copias técnicas o generar metadatos sin que la persona retratada lo sepa.
Estos procesos invisibles dificultan el ejercicio real de derechos como la supresión u oposición, generando una clara asimetría informativa. Y con ello, cobra especial relevancia el riesgo denominado de identificación persistente.

Misma persona, diferentes circunstancias
Este término se refiere a que algunas herramientas permiten recrear a una misma persona en múltiples escenas a partir de una sola fotografía, reutilizando rasgos faciales o corporales.
Desde una perspectiva feminista, esta capacidad facilita la repetición de usos abusivos y la escalada de daños, al reducir el coste y el esfuerzo necesarios para generar nuevas imágenes lesivas.
Por último, la guía concluye señalando que todos estos riesgos aumentan cuando hay pérdida de control, sexualización, atribución falsa de conductas y/o difusión en diferentes entornos con alto impacto personal o social.
