El uso de herramientas de inteligencia artificial para generar o modificar imágenes de terceros se ha normalizado en contextos cotidianos. De esta manera, los filtros, avatares, montajes “inofensivos” o pruebas técnicas que rara vez se perciben como un problema, están en el día a día de los usuarios. Sobre todo, y con mayor incidencia, entre las mujeres y las niñas.

Esta cotidianidad en el uso, no los hace inofensivos, sino al contrario. La guía publicada por la Agencia Española de Protección de Datos (AEPD) titulada ‘El uso de imágenes de terceros en sistemas de inteligencia artificial y sus riesgos visibles e invisibles’ advierte de un impacto real y que, claramente, es desigual sobre mujeres y niñas.

filtros en redes sociales

La imagen personal también es un dato

La AEPD recuerda que cualquier imagen en la que una persona sea identificable —aunque esté alterada o generada por IA— constituye un dato personal. Por tanto, subir una fotografía de una tercera persona a un sistema de IA, incluso sin difundir el resultado, supone un tratamiento de datos que, en la mayoría de los casos, se realiza sin conocimiento ni control de la persona afectada.

Entre los impactos visibles, la guía identifica señales de riesgo especialmente relevantes desde el enfoque de género. La sexualización sintética ocupa un lugar central ya que se centra mayoritariamente en la generación de desnudos, escenas íntimas o insinuaciones sexuales a partir de imágenes neutras.

Todo ello se considera un riesgo muy alto, por su potencial de humillación, chantaje y violencia digital, hacia las mujeres. Aunque muchas plataformas imponen límites, la AEPD subraya que estos no eliminan por completo el peligro, sobre todo cuando los contenidos parecen realistas o se reutilizan fuera del contexto inicial.

En el fondo de la cuestión, está la difusión de imágenes sexualizadas generadas a través de Grok, la red social de X, propiedad del magnate Elon Musk.

Los ‘deepfakes’ atentan contra el honor

Otro riesgo clave es la atribución de hechos no reales como imágenes o vídeos generados con IA. Desde la perspectiva de género, estos pueden presentar a una mujer en situaciones verosímiles pero falsas, con consecuencias directas sobre su reputación, su entorno laboral o su seguridad personal. La descontextualización de esta información, además, amplifica este daño, incluso cuando el uso inicial se pretendía humorístico o banal.

filtros en redes sociales

La guía, pues, introduce además un criterio esencial que tiene que ver con la vulnerabilidad de la persona afectada. Pero también con menores, personas mayores, mujeres con discapacidad o en contextos de dependencia requieren un umbral de prudencia máximo.

En estos casos, un uso aparentemente inocente puede derivar en acoso, estigmatización o violencia digital, con efectos acumulativos.

Sin control de los datos personales

Más allá de lo visible, la AEPD detalla riesgos menos perceptibles, pero estructurales, por ejemplo, al subir una imagen a un sistema de IA. En estos casos, se produce una pérdida efectiva de control ya que intervienen proveedores tecnológicos, servicios en la nube y sistemas de seguridad que pueden conservar copias técnicas o generar metadatos sin que la persona retratada lo sepa.

Estos procesos invisibles dificultan el ejercicio real de derechos como la supresión u oposición, generando una clara asimetría informativa. Y con ello, cobra especial relevancia el riesgo denominado de identificación persistente.

filtros en redes sociales
La influencer e instagramer, Alessandra Sironi, posa con su smartphone durante una sesión con el videógrafo Fernando Mayorca en The Set Lab, en Leganés, Madrid (España), a 24 de marzo de 2021. Eduardo Parra / Europa Press

Misma persona, diferentes circunstancias

Este término se refiere a que algunas herramientas permiten recrear a una misma persona en múltiples escenas a partir de una sola fotografía, reutilizando rasgos faciales o corporales.

Desde una perspectiva feminista, esta capacidad facilita la repetición de usos abusivos y la escalada de daños, al reducir el coste y el esfuerzo necesarios para generar nuevas imágenes lesivas.

Por último, la guía concluye señalando que todos estos riesgos aumentan cuando hay pérdida de control, sexualización, atribución falsa de conductas y/o difusión en diferentes entornos con alto impacto personal o social.