Los 'deepfakes', uno de los peligros de la red más difíciles de detectar
- Los deepfakes son vídeos y audios manipulados para hacer creer que se está ante la fuente original
- Coronavirus: última hora en directo | Así evoluciona la curva del coronavirus en España
- ¿Qué es el coronavirus? | Mapa de España | Mapa mundial
Vivimos en la era de las fake news. Ya nos estamos acostumbrando a las noticias falsas y la desinformación como si fuera algo normal. Pero puede ir a peor. Podrían irrumpir con fuerza en España los deepfakes. En este caso, las trampas se hacen manipulando el vídeo y el audio de manera que el receptor cree que está delante de la fuente original y ya no se hace preguntas.
Coronavirus es igual a miedo. El miedo es un poderoso instrumento para controlar nuestra voluntad y manipularnos y la tecnología hace el resto. A través de redes sociales o sistemas de mensajería instantánea se logran reenvíos incontrolados y su viralidad provoca una verdadera pandemia del miedo. Eso es lo que consiguen los bulos.
La manipulación de vídeos y audios empezó como una broma. Los deepfakes nacieron en 2017, cuando alguien con nombre de usuario "Deepfake" publicó un vídeo falso en la web. Después se bautizó con este mismo término a las grabaciones pornográficas manipuladas donde aparecía la cara de alguna famosa o actriz de Hollywood para después viralizarlas y atacar a su reputación. Luego saltaron al cine y al terreno político, sobre todo en época electoral.
Una de las formas de desinformación más difíciles de reconocer
La tecnología Deepfake ha ido evolucionando hasta convertirse, según algunos expertos, en una de las formas de fraude y desinformación más difíciles de reconocer a día de hoy.
La Oficina de Seguridad del Internauta (OSI) ya nos alerta en su web del peligro que nos acecha y nos dice que el peligro radica en que cualquiera puede hacerlo.
Estos vídeos, creados algunos con programas de inteligencia artificial, logran insertar el rostro de una persona en la cara de otra en cualquier tipo de escena audiovisual y modificar su voz, y hacen creer a los usuarios que una persona, anónima o personaje público, realiza declaraciones o acciones que nunca ha hecho.
Diferentes tipos de deedfakes
La Oficina de Seguridad del Internauta los clasifica en dos tipos:
- Deepface: cuando se trata de superponer el rostro de una persona en la de otra y falsificar sus gestos. En algunos casos, el resultado es tan realista que resulta muy difícil identificar el engaño o fraude.
- Deepvoice: en este otro caso se trataría de unir frases y palabras sueltas utilizadas por una persona para crear un discurso. Incluso, es capaz de clonar la voz original a partir de estos fragmentos.
Ruth García, técnico de servicios de ciberseguridad para ciudadanos de INCIBE, el Instituto Nacional de Ciberseguridad, cree que "si la viralización de las fake news suponen un peligro, los deepfakes son una amenaza para la sociedad". "Cada vez cuestan más de identificar y golpean directamente sobre la credibilidad o reputación de una persona", explica.
Facebook, Twitter y Google (mediante la herramienta Assembler) están tomando cartas en el asunto para poner freno a este tipo de contenidos multimedia falsos y, según Ruth García, aunque cada vez haya mejores herramientas para crearlos, "la administración también trabaja en programas que son capaces de detectar si una imagen ha sido manipulada".
Cómo manipulan los vídeos
Selva Orejón, responsable de Onbranding y experta en identidad digital, asegura que aunque no hay datos oficiales, los deepfakes en vídeo aumentarán y ya se están empezando a recibir algunos audios manipulados.
"Si se trata de un famoso, la voz pueden conseguirla en internet pero se están dando casos, donde se suplanta la identidad de alguien con cierta credibilidad para dar la máxima veracidad. Le llaman por teléfono con cualquier excusa y cuando ya han conseguido su voz durante unos minutos ya pueden elaborar el plan para engañar a alguien. Saben que con la voz ya tendrán esa credibilidad para que otros piquen", explica Orejón.
De hecho, los ciberdelincuentes saben que si un trabajador recibe la orden para hacer compras o transferencias con la voz de su superior, siempre es más fácil que se lo crea.
Selva Orejón cuenta a RTVE que está investigando algunos casos en los que "han llamado por teléfono a directivos de empresas y les han suplantado la voz", y, con ella en su poder, el daño puede ser terrible: "desde cometer estafas, vender productos en su nombre..., hasta atacar a su reputación; depende de lo que quieran conseguir y de hasta dónde llegue la imaginación de los malos", advierte.
Una evolución de las fake news
Otro experto en el tema, Rodolfo Tesone, especialista en Derecho Digital del Colegio de Abogados de Barcelona, pone un ejemplo muy clarificador para entender la peligrosidad de los deepfakes: "Imagínate que mañana te llega un vídeo con la cara del presidente del Gobierno y con su voz diciendo que el confinamiento ya se da por finalizado…sería terrible pero a la vez muy creíble porque la gente tiene ganas de creérselo y están jugando con nuestros sentimientos", explica.
Tesone cree que los deepfakes son la evolución de las fake news y que tanto unas, como otras, pretenden intoxicar. "La manipulación y las noticias falsas atentan contra nuestra democracia y hace falta una regulación urgente, quizás el coronavirus sirva para darnos cuenta de eso. Igual que existe el delito de atentado contra la salud pública, debería existir el delito de atentado contra la información pública", asegura.
Este experto considera que la información es un servicio público y debe ser veraz, rigurosa y emitida por medios solventes y acreditados. Cree que hay que concienciar a la opinión pública para que desconfíe de las fuentes que no sean fiables. Y sobre todo preguntarse quién se beneficia de esa difusión.
¿Como detectar los deepfakes?
Ruth García, técnico en ciberseguridad de INCIBE, nos recomienda aplicar el sentido común, la paciencia y seguir estos criterios para poderlos identificar:
- Buscar aquello que no tenga sentido: revisar la imagen, el audio, el rostro, los gestos cualquier cosa que no nos cuadre como por ejemplo el parpadeo. Un ser humano parpadea, de promedio, en intervalos de 2 a 8 segundos. En este tipo de falsificaciones los personajes suelen parpadear poco y en períodos relativamente largos.
- Si el contenido del vídeo es muy alarmante, llamativo e incendia las redes en poco tiempo, mantente alerta y desconfía.
- Debido al trabajo de edición, estos vídeos suelen ser cortos.
Según algunos estudios, se prevé que en el año 2022 se consuman más noticias falsas que reales, así que será imprescindible ponerse manos a la obra y evitar que la desinformación ponga en peligro la verdad. ¿Qué pasará cuando una noticia enlace a un vídeo deepfake en el que aparentemente no seamos capaces de distinguir y nos creamos lo que dice un personaje que ha sido falsificado?