TikTok expone a los menores a contenidos sobre suicidio, autolesiones, armas y pornografía
- Una investigación del Lab de RTVE revela que TikTok no filtra los contenidos por edad
- La Comisión Europea observa a TikTok por su formato adictivo y nocivo para el menor
Alan tiene 13 años y se ha abierto una cuenta en TikTok. Le interesan los vídeos de animales y los de humor. Durante las primeras semanas Alan repostea retos, le da ‘me gusta’ a publicaciones de gatos y la banda sonora de su feed es la última canción de Chayanne, pero todo eso cambia cuando se detiene unos segundos en un vídeo que habla del suicidio de un menor. El algoritmo entiende que le interesa ese contenido y decide enviarle más: su perfil se llena de publicaciones de menores que dicen que un día ya no estarán aquí, comentarios de usuarios asegurando que tienen fecha para quitarse la vida y vídeos en tono depresivo y fomentando las autolesiones.
Alan se comporta y reacciona como un niño de su edad, pero, afortunadamente, no es una persona real, sino uno de los cuatro perfiles falsos creados por el Lab de RTVE para TikToktives, una docuserie que investiga si esta red social protege realmente al menor. Son identidades ficticias diseñadas cuidadosamente para este proyecto, pero podrían corresponder a cualquier persona de nuestro entorno.
Según ha comprobado el equipo del Lab, detrás de muchas de estas publicaciones con miles de ‘me gusta’ hay menores de edad. Este tipo de contenidos “son siempre una llamada de auxilio y probablemente esa persona no sepa comunicarlo de otra manera, o no ha tenido los espacios adecuados para hacerlo. Entonces utilizan lo que tienen más a mano, que son las redes sociales”, ha explicado el psicólogo de emergencias, Jesús Linares, entrevistado en la docuserie TikToktives.
Vídeos que impactan: el modelo de negocio de TikTok
Amnistía Internacional realizó su propia investigación con 30 cuentas automatizadas y entrevistas a niños, niñas y jóvenes de Kenia, Filipinas y Estados Unidos. La conclusión del informe ‘Empujados a la oscuridad’ es que los menores expuestos a contenidos sobre salud mental en TikTok pueden “verse arrastrados fácilmente hacia espirales de contenidos potencialmente nocivos, incluidos vídeos que idealizan y fomentan el pensamiento depresivo, las autolesiones y el suicidio”.
“El modelo de negocio de TikTok es que el usuario pase el mayor tiempo posible en la plataforma para recopilar (y luego vender) más datos sobre ti”, argumenta Beatriz Martos, campaigner sobre tecnología y derechos humanos de Amnistía Internacional. Y para lograrlo, la empresa china no duda en mostrar contenidos sin moderación: “Un suicidio siempre llama la atención, eso no significa que lo queramos llevar a cabo, pero es algo que produce curiosidad. Puede ser que pases un segundo más viéndolo y el algoritmo ya entiende que te atrae”, concluye Martos.
La investigación del Lab demuestra que en las cuentas falsas de los cuatro menores aparecen contenidos violentos, detenciones, tiroteos, armas ilegales o narcopisos sin que lo busquen. En la de Lola, otro de los perfiles falsos, apareció el directo de una mujer que sugería a los usuarios entrar en la web de su descripción. El enlace llevaba a una página de citas con imágenes de pornografía explícitas, que pedía dinero a cambio de hablar con perfiles falsos de mujeres.
“A día de hoy se sabe muy poco sobre cómo funcionan las redes sociales y el algoritmo de TikTok“
Según la Agencia Española de Protección de Datos (AEPD), la edad a la que los menores consumen pornografía en España por primera vez está comprendida entre los 9 y los 11 años. “No la buscan, la encuentran. Se les pone ahí directamente”, asegura Marc Masip, psicólogo experto en adicción a la tecnología. Masip insiste en que “a día de hoy se sabe muy poco sobre cómo funcionan las redes sociales y el algoritmo de TikTok, que en los menores genera ansiedad, estrés, frustración y fracaso académico. Si hay un elemento que sabemos que es tan tóxico y peligroso, lo que no puede ser es que mi hijo tenga acceso”.
Publicaciones de menores sexualizadas
“Mi hija juega al voleibol y un padre grabó los partidos y los subió a las redes sociales sin el consentimiento de los padres. Un perfil de TikTok aprovechó esas imágenes, y recortó y enfocó el trasero de las menores sexualizando esos partidos de voleibol”, denuncia Ana en la docuserie TikToktives. Carla es otra menor usuaria de TikTok, tiene 16 años y cuenta que adultos desconocidos comentan sobre su físico en su perfil, algunos incluso le piden conocerse.
Desde Unicef España creen que esta red social “no estaba pensada para menores” y piden un aumento en las medidas de protección al ser tan popular entre niños y adolescentes. También sugieren a los padres que acompañen a sus hijos para que hagan un buen uso del móvil y la tecnología. “No puedes depositar el bienestar de tu hijo en que desarrollen las mejores medidas posibles”, explica Ignacio Guadix, responsable de Educación y Derechos Digitales de UNICEF España.
“Hay una herramienta muy poco conocida a través de la cual puedes solicitar la retirada urgente de un contenido violento, íntimo o sexual, que se está difundiendo sin tu consentimiento”, explica Laura Davara, abogada experta en protección de datos, redes sociales y menores. Se refiere al Canal prioritario, un enlace de la Agencia Española de Protección de Datos donde puedes hacer la solicitud “incluso si en un primer momento ese contenido tenía tu consentimiento”, insiste Davara. La retirada de esas publicaciones tarda de media unas 72 horas.
Douyin, la versión china de TikTok
TikTok está en el punto de mira de la Comisión Europea, que investiga si esta red social cumple con la Ley de Servicios Digitales. A Bruselas le preocupa si esta red social protege realmente al menor de los contenidos perjudiciales y de su diseño altamente adictivo, al ser sencillo y estimulante.
La aplicación, de origen chino, no se puede descargar en el gigante asiático. Allí utilizan Douyin, creada por la misma empresa matriz, con una interfaz casi idéntica, pero que filtra los contenidos según la edad y limita el tiempo de uso a los niños y adolescentes. “En modo menores, nos sale un mensaje que dice que de las diez de la noche a las seis de la mañana, la aplicación no se puede utilizar”, explica Yolanda Álvarez, corresponsal de TVE en Pekín.
Las medidas de TikTok
Como parte de la investigación, el Lab de RTVE ha contactado con TikTok y ha pedido explicaciones. La red social ha asegurado en un informe que protege al menor con medidas como la privatización por defecto de sus cuentas de 13 a 15 años o prohibir los directos a menores de 18 años. En uno de los capítulos de TikToktives se ve a distintos niños y adolescentes hacer directos desde su colegio, lo que sugiere que al abrirse la cuenta pusieron que eran mayores de edad para tener acceso a esas funciones, ya que TikTok no verifica la edad.
Tampoco verifican si sus usuarios tienen 13 años, la edad mínima para abrirse una cuenta. La propia red social asegura que eliminó en un trimestre más de 7 millones de usuarios sospechosos de tener 12 o menos años. Finalmente, los datos se imponen, y así lo afirma al Lab el psicólogo Marc Masip: “Han conseguido atraer a chicos y chicas de una edad muy temprana y vulnerable, y no se está haciendo ningún tipo de prevención ni de seguimiento. Si el propio TikTok prohíbe la entrada a menores de 13 años, no lo está haciendo bien, porque hay niños más pequeños con una cuenta en la app. No está siendo eficaz”.