Una regulación 'inteligente' para la IA: de los filtros de edad a la obligación de avisar de las falsificaciones
- La UE prepara diversas normas para reforzar la protección de los ciudadanos frente a ciberdelitos
- La educación es clave para que menores y adultos sean conscientes de las consecuencias reales y legales de un uso ilícito
Pablo, nombre ficticio, tiene 14 años y quiere utilizar una app con inteligencia artificial (IA) para desnudar a una compañera de clase en una fotografía. Luego, podrá mandársela a sus amigos. ¿Qué se lo impide? Tiene los conocimientos, el material y poca idea de las implicaciones legales o el daño que puede causar a la adolescente. La facilidad para usar programas de IA ha puesto a disposición de cualquiera el potencial de la tecnología, pero también sus riesgos, cuando muchos de ellos son todavía desconocidos.
"Si en España, por ejemplo, es necesario acreditar una situación psicofísica y unos conocimientos específicos, por ejemplo, para conducir un vehículo o tener un perro de determinada raza, mi pregunta es: por qué todavía no se está regulando el acceso a la inteligencia artificial como se regula el acceso a contenidos sensibles para los menores", cuestionó la abogada María José Ruiz Félez en los micrófonos de 24 horas de RNE.
La responsabilidad de las plataformas, los filtros de edad, el anonimato y la capacidad para verificar los contenidos son algunas de las cuestiones que han suscitado casos como el de Almendralejo, donde decenas de niñas han sido víctimas de la difusión de imágenes pornográficas falsas creadas con IA por parte de otros menores.
La responsabilidad de las plataformas
En los últimos meses, magnates y puntas de lanza de la inteligencia artificial —desde Elon Musk al mismo creador de ChatGPT, Sam Altman, o el exvicepresidente de ingeniería de Google, Geoffrey Hinton— han publicado diversas cartas abiertas para alertar del peligro de "extinción" vinculado a esta tecnología. Al margen del alarde que se puede inferir en sus mensajes, es una llamada a los países a regular los usos potenciales de la IA. ¿Por qué no empezar por los que ya se están dando?
"El uso de herramientas digitales para producir pornografía no consentida era una de las primeras premisas de la Ley de Servicios Digitales y, sin embargo, acabó eliminándose por motivos, pienso yo, comerciales. Porque responsabilizaría a las plataformas de los contenidos que genera su propia herramienta", señaló la periodista experta en tecnología Marta Peirano, en Las Mañanas de RNE, donde incidió que el 96% de los contenidos generados son pornografía no consentida, mayoritariamente, de mujeres.
La autora de diversos libros sobre riesgos y derechos en la sociedad digital comparó la situación con la de Facebook, Google u otras plataformas digitales que pudieron crecer "de forma desproporcionada precisamente porque son irresponsables" de los contenidos que se publican en ellas. La diferencia ahora radica en que las apps no alojan esas imágenes, sino que permiten a los usuarios crearlas. "Las dificultades técnicas para especificar un tipo de uso o prohibir un tipo de uso en este caso no deberían ser tan grandes", reclamó.
Porque estas aplicaciones sí pueden tener usos legales, recuerda Borja Adsuara, doctor en Filosofía del Derecho y consultor experto en derecho digital, privacidad y protección de datos en una conversación con RTVE.es. La app que permite desnudar a personas en fotografías, por ejemplo, puede utilizarse con uno mismo o con otros, pero de manera consentida. "Mientras haya consentimiento, no hay ningún problema. El problema es cuando se hace sin autorización", recalca el abogado.
Filtros de edad y herramientas de verificación
Además de algoritmos que impidan determinados usos ilegales, también pueden emplearse obstáculos. Investigadores del Instituto Tecnológico de Massachusetts (MIT) han desarrollado una herramienta, llamada PhotoGuard, que altera las fotos para que no puedan ser manipuladas con apps de IA generativa o, al menos, para que el resultado sea poco realista o deformado.
Otro control posible es exigir una edad mínima. Hace unos meses, Italia bloqueó el uso de ChatGPT, por no respetar la ley de protección de datos de los consumidores. Lo hacía con "efecto inmediato", solo unos meses después de que la empresa estadounidense que lo desarrolla, OpenAI, lanzara el chatbot inteligente. El Gobierno de Giorgia Meloni, además, lamentó "la ausencia de todo tipo de filtro" en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años.
La edad mínima para utilizar redes sociales y plataformas lleva años en vigor en España. Sin embargo, se trata más de un filtro 'estético', que cualquier menor puede saltarse clicando sobre "sí, tengo más de 18 años" o seleccionando la edad permitida. Ahora, la Unión Europea quiere aumentar la seguridad a través del reglamento conocido como eIDAS 2 (por las siglas en inglés de "identificación electrónica, autenticación y servicios de confianza"). Según apunta Borja Adsuara, dicho refuerzo pasaría por aprovechar los avances tecnológicos para verificar los datos del usuario y, además, empezar a multar a las plataformas que incumplan la ley.
Asimismo, cada vez es más importante poder distinguir qué está generado por IA y qué es una realidad a la que se ha tomado una fotografía. Por ello, el Parlamento Europeo ha planteado la necesidad de que los contenidos creados por un programa 'inteligente' y autónomo vayan siempre identificados como tal. En la toma de posición previa a la negociación de la ley europea de la IA entre los países miembros, la Eurocámara también ha pedido "diseñar un modelo para evitar" los usos ilegales, así como exigir la publicación de qué datos protegidos por derechos de autor se han usado para entrenar a la máquina.
Este último recelo también estuvo de actualidad la semana pasada, cuando el actor y cómico británico Stephen Fry denunció que un documental ha "robado" su voz. Los responsables solo han necesitado las horas de grabación de los audiolibros de Harry Potter para copiar su timbre real y usarlo sin permiso. Por suerte, ya existen herramientas que permiten detectar recursos e identidades 'no reales'.
Concienciar a menores y adultos
Pero al final, todas las regulaciones posibles no tienen sentido sin una pieza clave. "Lo que hay que hacer es educar, concienciar y, sobre todo, no divulgar el contenido que sospechemos que tiene un origen ilícito o nos haga pensar que corresponde a una falsificación". Jorge Gómez, experto en esta tecnología, resumió así en La hora de la 1, la idea que otros muchos expertos han repetido estos días a raíz del caso de Almendralejo.
Conocer los riesgos e implicaciones de la IA es, a día de hoy, una tarea pendiente para menores y adultos, aunque en muchas ocasiones no sea más que un nuevo ámbito para reproducir los sesgos y violencias de siempre. Para Adrián Bertol, experto en IA del Comité Ejecutivo de AI-Network, es el momento de explotar su potencial positivo:
"Tiene que haber un impulso en la investigación de la inteligencia artificial, no solo a nivel institucional, sino también empresarial. Cada vez que un ciberdelincuente puede utilizarla para un mal es porque no se está impulsando a nivel social para que pueda generar algo positivo", afirmó en el Canal 24 horas, citando su uso para investigación en medicina, predicción de catástrofes o mejora de procesos productivos. Quizás en esta tecnología también está la respuesta a los problemas que ella misma genera.