El anorak del Papa, la detención de Trump y otras imágenes falsas generadas por Inteligencia Artificial: claves para detectarlas
- Envíanos consultas al 659 800 555 o a verificartve@rtve.es
- Suscríbete a nuestros desmentidos por RSS y practica con la Caja básica de herramientas
En los últimos días se han viralizado en redes imágenes falsas generadas por Inteligencia Artificial que suplantan a personalidades relevantes como el Papa Francisco, el presidente de Francia, Emmanuel Macron, o el expresidente estadounidense Donald Trump en situaciones que nunca han sucedido. Con la ayuda de expertos en Inteligencia Artificial, en VerificaRTVE te ofrecemos siete claves para detectar estas imágenes ficticias generadas por ordenador que se viralizan por sus similitudes con las instantáneas reales.
Tanto la imagen del Papa con un mullido anorak blanco como las fotos falsas de Macron en una protesta y las del inexistente arresto del expresidente Trump conforman el ejemplo más reciente del alcance y la viralización en redes de unas imágenes generadas con Inteligencia Artificial. Estas falsas imágenes han sido creadas con Midjourney, una aplicación de Inteligencia Artificial que permite crear fotos con solo decirle la idea que quieres convertir en imagen y que destaca por el nivel de realismo de sus creaciones, en línea similar a los resultados que consigue Dall-E 2, de OpenAI, con ilustraciones y dibujos. Estos sistemas de Inteligencia Artificial funcionan como “redes neuronales profundas que tienen la capacidad de generar" los contenidos a partir de una frase descriptiva de lo que se quiere crear, según explica a VerificaRTVE la directora de la Fundación ELLIS Alicante, Nuria Oliver.
¿Cómo podemos llegar a identificar estas imágenes desarrolladas por Inteligencia Artificial para no confundirlas con fotografías reales? ¿Qué recursos tenemos disponibles para detectarlas y no contribuir a su viralización? Respondemos a estas preguntas con el apoyo de expertos en Inteligencia Artificial.
1. Detente, contrasta y analiza
La primera clave para detectar imágenes falsas creadas por Inteligencia Artificial nos llega de la mano de Sam Gregory, experto en desinformación y vídeos ultrafalsos y director ejecutivo de Witness, una organización que promueve el uso de tecnologías audiovisuales para documentar abusos de los Derechos Humanos. Cuando sospechemos que estamos ante una imagen creada por IA lo primero que hay que hacer es “detenerse, investigar la fuente, buscar una cobertura alternativa y rastrear el original". Lo define como el “método SIFT", por las siglas en inglés de los cuatro conceptos mencionados anteriormente. Esta recomendación se basa en detenernos a investigar el contexto de la imagen y comprobar si ha aparecido publicada “en otros contextos digitales" o si "es en principio completamente novedosa".
Gregory explica a VerificaRTVE que fijarse únicamente en detalles concretos de una imagen generada por IA “hace que la gente se fije en los píxeles, pero que no preste atención al contexto de por qué alguien" compartiría “una imagen para engañar". Por ese motivo, considera que “ningún consejo durará" para identificar este tipo de imágenes por el avance constante de la Inteligencia Artificial y aboga por "centrarse en la alfabetización mediática". El tecnólogo experto en ciberseguridad Marcelino Madrigal explica que la ciudadanía “tiene que tirar de las herramientas de las que siempre disponemos, que son principalmente el sentido común y contrastar de dónde viene la información o la imagen" que nos llega. “Tenemos que hacer un ejercicio consciente de cuestionamiento del contenido", apunta la experta Nuria Oliver.
2. Manos imposibles
Es importante que el internauta pueda reconocer visualmente dónde se encuentran las limitaciones actuales de la Inteligencia Artificial a la hora de generar fotos. Los expertos consultados coinciden en que uno de los elementos a tener en cuenta en esas imágenes son las partes del cuerpo (manos, dientes, imperfecciones). Sam Gregory nos insta a fijarnos en las manos porque cuesta imitarlas y la Inteligencia Artificial acaba “añadiendo un dedo o contorsionando las manos de formas no humanas". En esto coincide el profesor de la Universidad Politécnica de Cataluña y consejero delegado de Ugiat Technologies, Francesc Tarrés, quien añade que “normalmente no son capaces de representar el dedo gordo". Por ejemplo, en las imágenes falsas del arresto de Trump aparecen muchas manos, algunas deformes a las que les faltan dedos, como puedes ver a continuación.
3. Dentaduras deformes
Tarrés aconseja fijarse también en la sonrisa de los sujetos que aparecen en imagen. Podemos ver dentaduras demasiado imperfectas, que no corresponden con la del personaje público suplantado o dentaduras con demasiadas piezas dentales, lo que pone de manifiesto su falsedad. La informática experta en IA Nuria Oliver también se pronuncia en este mismo sentido y detalla que en las imágenes creadas por la Inteligencia Artificial “los dientes a veces no están bien alineados".
4. Rostros sin imperfecciones en la piel
A la hora de detectar imágenes falsas creadas por Inteligencia Artificial hay que prestar atención a las caras de las personas que aparecen. Como nos explica Nuria Oliver, de la Fundación Ellis Alicante, las caras que generan los sistemas de Inteligencia Artificial “son demasiado perfectas, no tienen imperfecciones como tenemos los humanos" y el brillo de los ojos puede ser “demasiado excesivo". Podemos ver claramente este defecto en las imágenes falsas de la secuencia del inexistente arresto de Trump.
5. Expresiones faciales exageradas
También debemos prestar atención a las expresiones faciales, tal y como explica el fundador de Bellingcat, Elliot Higgins, en una entrevista concedida a Wired a raíz de la polémica por difundir en un hilo ejemplos de imágenes generadas por IA del inexistente arresto de Donald Trump y su familia. “Si le pides expresiones, Midjourney tiende a representarlas de forma exagerada, con pliegues de la piel muy pronunciados por ejemplo al sonreír". Estos ejemplos los puedes ver a continuación. Por un lado, la sonrisa del exprimer ministro británico Boris Johnson con dientes irregulares en unas imágenes generadas con IA para relacionarlas falsamente con el ‘partygate’ y, por otro lado, las expresiones faciales de Emmanuel Macron que arrugan en exceso la frente, en la secuencia falsa de las protestas.
6. Las luces y sombras
Nuria Oliver advierte de que las sombras de las imágenes generadas con IA “no son realistas". El tecnólogo Marcelino Madrigal coincide en esta postura y señala que “la colocación de las luces y las sombras no las siguen haciendo bien" en las imágenes generadas por la Inteligencia Artificial. Podemos ver un ejemplo en la secuencia de imágenes del falso arresto del expresidente estadounidense Donald Trump, en las que las sombras proyectadas de los agentes no corresponden con las que aparecerían en realidad. Vemos a varios agentes sujetando al protagonista pero las sombras que hay en el suelo no coinciden con las que proyectarían en realidad varios individuos.
7. Los fallos en el entorno y el segundo plano
En esta misma línea, los expertos consultados por VerificaRTVE recomiendan fijar la atención en los defectos del entorno que muestra la imagen, más allá del principal foco de atención. Elliot Higgins explica que la Inteligencia Artificial “a menudo se centra en el primer objeto descrito" y "todo lo que lo rodea suele tener más defectos". Esto también lo puedes ver en la imagen falsa del Papa con el abrigo blanco: la figura del pontífice aparece bien representada pero el defecto se observa en el detalle de la mano portando una botella.
También observamos defectos en las personas que parecen estar levitando en el fondo de otra imagen falsa del Papa Francisco en la que aparece luciendo unas zapatillas deportivas de diseño. En términos más generales, el catedrático en tecnología multimedia de la Universidad Politécnica de Madrid (UPM) Federico Álvarez explica a VerificaRTVE que la limitación de la Inteligencia Artificial reside en que "hay ciertas cosas que no es capaz de generar naturalmente" porque que tiene una “falta de naturalidad".
Las dificultades derivadas del rápido avance de la Inteligencia Artificial
Los expertos consultados coinciden en que cada vez será más difícil distinguir visualmente una imagen generada por IA de una real. El profesor de la UPC Francesc Tarrés señala: “Para un humano yo creo que llegará a ser indistinguible dentro de poco, dentro de un par de versiones más y será prácticamente indistinguible entonces, tendrás que entrenar máquinas que se especializarán en detectar lo que ha hecho otra máquina". Sin embargo, advierte: “Los detectores van un paso por detrás de lo los generadores". De hecho, en la actualidad los expertos consultados por VerificaRTVE no recomiendan herramientas o aplicaciones concretas que estén a disposición de los usuarios para detectar imágenes generadas por IA. Francesc Tarrés subraya que “a nivel de usuario no hay prácticamente nada" aunque sí “a nivel de programador" y considera que habría que “intentar de alguna manera simplificarlas" para que estén al alcance de los usuarios con conocimientos básicos, pero que para esto aún “queda". Sam Gregory también constata la falta de herramientas: “Por desgracia, no existen buenos detectores fiables de imágenes y vídeos generados por IA".
Ante estas dificultades para contar con herramientas que permitan a cualquier internauta detectar imágenes generadas con Inteligencia Artificial, los expertos sostienen que la solución puede pasar por regular las propias aplicaciones. Nuria Oliver afirma que "hay iniciativas para crear algún tipo de marca invisible, marca de agua, marca criptográfica o algún tipo de contenido que certifique que una foto, un vídeo o un audio han sido captados por una cámara o un micrófono". A la inversa, el profesor Francesc Tarrés cuenta que “esto es lo que está intentando hacer la ISO (Organización Internacional de Normalización) para que todos los grandes que están generando este software de generación de imágenes pongan algún tipo de marca invisible y que el sistema las pueda detectar". Mientras esto no ocurra, a juicio de Nuria Oliver, “cada vez será más importante el papel de los medios de comunicación y la veracidad de las fuentes donde la ciudadanía pueda acudir" para saber lo que es real.