Imágenes falsas, consecuencias reales: cómo se juzga en España el porno sintético sin consentimiento
- No hay un vacío legal, aunque existe margen para la interpretación de la ley cuando las víctimas son mayores de edad
- El 96% del contenido creado por IA es pornografía no consentida y, prácticamente en su totalidad, afecta a mujeres
Imágenes falsas, consecuencias reales. Un grupo de menores han sido esta semana identificados e interrogados por la difusión de imágenes creadas con inteligencia artificial (IA) para simular el desnudo de otras jóvenes, también menores de edad, en Almendralejo, Badajoz. Será por el número de víctimas o porque este año ha marcado un antes y un después en la toma de conciencia sobre el potencial de la IA generativa, pero el caso ha destapado las dudas. ¿Nuestra legislación lo contempla como delito?, ¿y si las víctimas fueran mayores de edad? Y sobre todo, ¿no se podría haber evitado?
"Lleva pasando desde, por lo menos, 2017, cuando a alguien se le ocurrió coger la cara de [la actriz] Gal Gadot en Wonder Woman y plantarla encima de un vídeo de pornografía californiana. Ya han pasado varios años y estamos viendo que la victimización de niñas es una realidad", denunció este martes la experta en tecnología Marta Peirano, en Las Mañanas de RNE, sobre los llamados deepfakes.
La periodista y escritora incidió en que el problema tiene un claro sesgo de género. Según el informe de 2019 de una empresa de monitorización de deepfakes, el 96% de las imágenes de creadas por la IA son pornografía no consentida y prácticamente en su totalidad afecta a mujeres.
Expertos en ética y juristas recuerdan que no podemos juzgar la tecnología en sí —por ejemplo, un cuchillo—, sino su uso —¿cortar jamón o matar a una persona?—, y remiten a la legislación vigente para condenar hechos delictivos contra la intimidad, la propia imagen, la integridad moral o el honor.
"Ni hay un vacío legal como dicen algunos, ni está todo hecho. Para eso se van actualizando las leyes y mejorando el marco regulatorio", señala Borja Adsuara Varela, doctor en Filosofía del Derecho y consultor experto en derecho digital, privacidad y protección de datos, que ejemplifica: "si yo cometo una estafa, da lo mismo si es por métodos electrónicos o con el timo de la estampita, sigue siendo una estafa".
Con menores: pornografía infantil
El caso de Almendralejo está atravesado por un factor: tanto las víctimas como los presuntos agresores son menores de edad. Así, aunque las penas vayan a ser más laxas y centradas en la reeducación, según el catedrático de Derecho Penal de la Universitat Oberta de Catalunya, Josep Maria Tamarit, los hechos podrían encajar en un delito de pornografía infantil, para lo que el juez de menores deberá valorar el contexto y el contenido sexual de las imágenes.
En ese sentido, el también abogado Borja Adsuara subraya que las últimas modificaciones del artículo 189 del Código Penal ya incluyen la pornografía infantil virtual. La necesidad surgió en los 90, mucho antes de la generalización de tecnologías ‘inteligentes’. "Para bien o para mal, la IA ha democratizado cosas que antes solo podían hacer quienes tuvieran conocimientos técnicos de Photoshop, pero el delito en sí es el mismo", afirma.
No obstante, y sin entrar a valorar ni las imágenes ni los hechos en Extremadura, Tamarit plantea algunas circunstancias que pueden complicar un caso de deepfake similar. Por ejemplo, el hecho de que se haya creado a partir de imágenes obtenidas lícitamente. O que, al no tratarse realmente de las víctimas, pueda ponerse en duda el daño a los derechos de la persona. En las posibles interpretaciones ahondó también la abogada María José Ruiz Félez en el programa 24 horas de RNE:
"El Código Penal castiga este tipo de delitos cuando se capte o utilice a menores de edad o cuando se produzca, venda, distribuya material de pornografía infantil, en cuya elaboración hayan sido utilizadas personas. ¿Cuál es el problema jurídico? Que aquí no ha sido usada ninguna persona. Aquí se han utilizado partes, segmentos, imágenes parciales que, aunque sí que sean correspondencia con la realidad, lo cierto es que han sido manipuladas o alteradas. Y sobre todo, lo que ocurre es que está induciendo a una confusión debido a la utilización de un mecanismo tan sofisticado como la inteligencia artificial", analizó.
Ante esta posibilidad, hace ya diez años, un informe del Consejo Fiscal advirtió de que "muy pronto" sería imposible distinguir entre imágenes reales e imágenes generadas por ordenador y, en 2015, el legislador introdujo el concepto de imágenes "realistas". A raíz de eso, contenidos "que no son reales pero lo parecen" sí podrían considerarse pornografía infantil, según la circular difundida por la Fiscalía para asentar una doctrina. En los detalles y particularidades, estaría el dictamen de cada caso.
Crear y difundir: los daños a la integridad moral
En cualquier caso, hechos como el de Almendralejo trascienden la mera creación de unas imágenes falsas. Su difusión tiene un impacto en la vida y bienestar de las víctimas.
"Yo entiendo que en este caso se ha producido claramente un delito de daños contra la integridad moral de las menores. Si, por ejemplo, alguna de ellas necesitara seguir un tratamiento psicológico para recuperarse de un trastorno por estrés postraumático, una depresión, una ansiedad o lo que fuera, ahí también estaríamos ante un delito de lesiones psíquicas", expresa María José Ruiz Félez, que cita también "amenazas condicionales" si alguien exigió una contrapartida a cambio de no difundir las imágenes.
En la misma línea, Adsuara señala otra posible acusación, puesto que la difusión de imágenes de terceros sin consentimiento es en sí mismo un delito. A este respecto ya existe legislación y jurisprudencia: la puesta en circulación de un vídeo de la exconcejala socialista y personalidad televisiva Olvido Hormigos en 2012 provocó la modificación del Código Penal, que convirtió en delito esta práctica. Más tarde, el suicidio de una mujer en Madrid tras difundirse un vídeo de contenido sexual entre sus compañeros de trabajo evidenció las bifurcaciones de acoso laboral y daño psicológico de hechos como este. Los agresores de la Iveco, no obstante, nunca fueron condenados porque no se pudo identificar al autor de la primera publicación.
¿Y si las víctimas fueran mayores de edad?
Entonces, si las imágenes sexuales creadas por IA y difundidas sin consentimiento fueran de mujeres adultas, ¿sería delito? Hay disparidad de opiniones entre los letrados, aunque la balanza se inclina por el sí.
"Iría más por un delito contra la intimidad y la propia imagen. Luego, por la vía civil el derecho al honor también está muy protegido; lleva aparejada una responsabilidad civil, unos daños morales", valora la abogada penalista Saray Contreras, que apunta que la creación artificial de la imagen de otro puede usarse para suplantar su identidad y sería un delito de usurpación del estado civil.
En cambio, Tamarit vuelve a plantear dudas. "Lo que es delito es difundir sin autorización de la persona afectada una grabación audiovisual o una imagen que se hubiera obtenido en su domicilio o en cualquier lugar fuera del alcance de la mirada de terceros. Ahí no entra este hecho, porque no es una imagen que se ha obtenido de esa persona, se ha hecho una recreación de esa imagen", argumenta. El catedrático de Derecho Penal cree así que el caso podría prosperar por la vía civil, donde la víctima podría pedir una indemnización y la retirada de los contenidos.
Y ante debates como este, la periodista especializada en la intersección entre tecnología y poder Marta Peirano considera que falta legislación al respecto. Cuando las víctimas son mujeres adultas, además, la cuestión puede tener otras aristas, como sugiere la proliferación de deepfakes pornográficos de políticas como Nancy Pelosi o Kamala Harris durante las últimas campañas electorales en Estados Unidos.
"El uso es punitivo y es violencia machista, en el sentido de que lo que quieren ejercer es el control. Quieren eliminar a las mujeres de los espacios públicos, quieren controlar a las mujeres con las que se relacionan a diario y, en muchos casos, acaba en extorsión", valoró en RNE, preguntándose también por qué los Estados no regulan con el fin de evitar que ocurra. "¿Por qué no se responsabiliza a las plataformas por los contenidos que genera su propia herramienta?"
¿Es necesario un cambio en la legislación?
Francia, Italia o Países Bajos consideran el llamado "pornovenganza", donde puede incluirse el porno deepfake sin consentimiento, como delitos sexuales, mientras España, Bélgica, Dinamarca Alemania o Portugal lo enmarcan en violaciones de la intimidad, según el estudio comparativo realizado por la Universidad Jagellónica en Polonia, publicado por Sage. "Esto afecta directamente al nivel de castigo, da una indulgencia innecesaria a los delincuentes y manda una señal errónea a la sociedad", valora la autora, Karolina Mania.
Entre los juristas españoles, también se muestran proclives, al menos, a abrir el debate. "Habría que modificar el Código Penal porque estos hechos no encajan exactamente. ¿Se podría aplicar? Sí. ¿Se podrían buscar las cosquillas legalmente? También, porque literalmente no se habla de imágenes que sean modificadas en perjuicio de otra persona. Las leyes se tienen que adaptar a los hechos de la vida real, a lo que estamos viviendo ahora", abunda la letrada Saray Contreras.
El catedrático Josep Maria Tamarit, que también ve positivo que se investigue y reflexione el respecto, no obstante advierte: "Es una decisión del Parlamento, que debe tener en cuenta siempre que un hecho sea delito debe ser excepcional. Siempre prima la libertad. Hay que pensar muy bien cuáles son los límites que tiene sentido poner ante las nuevas amenazas".