Los retos de TikTok ponen en alerta a las familias: ¿Hay que bloquear la plataforma?- RED/ACCIÓN

Los retos de TikTok ponen en alerta a las familias: ¿Hay que bloquear la plataforma?

 Una iniciativa de Dircoms + INFOMEDIA

A las plataformas se les solicita la creación de una Internet mejor, vigilando que haya un contenido positivo en sus canales y promoviendo servicios seguros para sus usuarios.

Los retos de TikTok ponen en alerta a las familias: ¿Hay que bloquear la plataforma?

“Una Internet mejor comienza contigo: más conectados, más seguros”. Con ese lema se celebra el Día de Internet Segura 2021. Este año se nos pide a todos, niños y jóvenes, familias, docentes y centros escolares, así como a las empresas y responsables políticos, implicarnos en esta tarea.

A las plataformas se les solicita la creación de una Internet mejor, vigilando que haya un contenido positivo en sus canales y promoviendo servicios seguros para sus usuarios.

“Mantener a nuestra comunidad a salvo es nuestra mayor prioridad. Hemos llegado a un acuerdo con el Garante (de la protección de datos) y desde hoy vamos a tomar medidas adicionales para apoyar a nuestra comunidad en Italia. A partir del 9 de febrero, enviaremos de nuevo a cada usuario de Italia nuestro ‘age gate proccess’ (proceso de control de edad), y solo los usuarios mayores de 13 años podrán seguir utilizando la aplicación después de pasar este proceso. Además, estamos desarrollando un nuevo botón de ‘denunciar’ para permitir a los usuarios que reporten cuentas que puedan ser de menores de 13 años, que serán revisadas por nuestro equipo y eliminadas, en el caso de que sea necesario. No hay una línea de meta cuando se trata de proteger a nuestros usuarios, especialmente a los más jóvenes y nuestro trabajo en esta área tan importante no se detiene. Por ello, continuamos invirtiendo en las personas, los procesos y la tecnología que nos ayuda a mantener nuestra comunidad como un espacio seguro para la expresión positiva y creativa.”

Alexandra Evans, Head of Child Safety de TikTok para Europa.

Este es el comunicado que lanzaba la plataforma china TikTok tras la sentencia por el fallecimiento de la niña italiana de 10 años como consecuencia de uno de los retos virales, el #BlackOutChallenge.

¿Qué contenidos se publican en TikTok?

En TikTok podemos ver vídeos de bailes, jóvenes (y no tan jóvenes) haciendo play-back, trucos de magia, manualidades, recetas de cocina, tutoriales de belleza y un sinfín de actividades. Pero también, y cada vez más, de activismo social o político, educativos o sanitarios.

Por eso, tantas universidades, empresas o partidos políticos han visto la oportunidad de crear y publicar contenidos de una manera clara, sencilla y directa para su público objetivo: los adolescentes y jóvenes.

TikTok, como el resto de aplicaciones y redes sociales, es una plataforma cuyo objetivo principal es que los usuarios permanezcan el mayor tiempo posible en ella para poder rentabilizarla, ya sea a través de impactos de publicidad, con el registro de datos o de su comportamiento.

Su éxito se debe a la forma en la que, gracias a la inteligencia artificial y su algoritmo, recopila y aprovecha los datos de los usuarios para mejorar su experiencia. A medida que las marcas compiten por la atención de los usuarios, el contenido personalizado se ha convertido en lo más importante.

Un fenémeno viral

Pero desde hace algunos años se ha puesto de moda que personajes famosos, como influencers y youtubers, o cualquier individuo anónimo, se apunten a realizar un reto o challenge, ya sea por una causa benéfica o por simple diversión. Estas tendencias virales se comparten por mensajería instantánea o redes sociales y cada usuario aporta su versión personal del reto.

Los retos, bien diseñados y enfocados, pueden ayudar a conseguir ciertos objetivos, como concienciar sobre la necesidad de cuidar el medioambiente, luchar por los derechos de los más vulnerables, la igualdad de oportunidades, educación, etc. (con etiquetas como #TodosPorElClima, #TheRealChallenge y #DanceForChange…).

El problema surge cuando aparecen retos que ponen en peligro la salud o la integridad física de los usuarios, especialmente si son menores de edad. Algunos de los challenges más peligrosos se están difundiendo hoy día en TikTok, donde miles y miles de adolescentes se retan a realizar juegos peligrosos.

Y así es como se han viralizado en los últimos meses tras verse en la app el #BenadrylChallenge, el #KnockOutChallenge, el #SupergluelipsChallenge o el tristemente mediático por el fallecimiento de al menos dos menores #BlackOutChallenge.

Los menores en la plataforma

Según la Ley Orgánica 3/2018 de Protección de Datos Personales y Garantía de los Derechos Digitales del 5 de diciembre, artículo 7.1 (LOPDGDD), en España se establece en 14 años la edad mínima para que un menor pueda ser gestor del tratamiento de sus datos personales –por ejemplo, teniendo perfil en redes sociales–.

En el caso de TikTok, la propia plataforma especifica en su política de privacidad que no está dirigida a niños menores de 13 años y, además, nos insta a denunciar a través de un formulario si creemos que tienen o recopilan datos personales sobre un niño menor de esa edad.

De hecho, la clasificación que tienen en los mercados de descargas, tanto iOS como Android, es de 12+ con el fin de que las familias sepan que no es una aplicación para menores de esta edad.

Pero ¿cómo se valida que el menor no miente cuando introduce su edad o que confirma tener el consentimiento paterno (obligatorio)? Pues, simplemente, la plataforma confía en la honestidad y madurez de todos los menores. Y este es el gran problema, la edad mínima de acceso y las plataformas: no hay un sistema de doble verificación eficaz.

Como publica en un estudio Statista, la presencia de niños más pequeños en redes sociales es una realidad, hay un 47,7 % de usuarios de 4 (sí, lo hemos escrito bien) a 15 años en Instagram y un 37,7 % en TikTok. Por eso es tan importante que las familias supervisen la actividad de los menores cuando utilizan sus tabletas o smartphones, ya sea a través de una herramienta de control parental o mediante las conversaciones familiares.

Aumentando las medidas de seguridad

Tras la batalla legal con EE UU y la sanción impuesta en 2019, la plataforma china introdujo una serie de medidas para limitar el acceso a contenidos inapropiados y a personas desconocidas por parte de los menores prohibiendo las bromas, el acoso en la red y los retos o challenges que pudieran provocar lesiones.

Además, de 13 a 16 años los niños utilizarán una versión restringida de TikTok con contenidos de acuerdo a su edad y con bloqueo de los mensajes privados entre usuarios. Sin embargo, el problema es que esto no es posible aplicarlo en las cuentas de todos aquellos menores que no pusieran su edad real al darse de alta.

Además, en noviembre ampliaron la función del Family Pairing, que permite vincular la cuenta de nuestro hijo o hija a la nuestra, para, de este modo, gestionar o controlar funciones como el tiempo que pasan conectados, quién puede ver su perfil, quién puede comentar sus vídeos, enviarles mensajes o ver los contenidos que le gustan.

Control de contenidos y privacidad

El pasado 13 de enero la plataforma china reforzó aún más la privacidad y la seguridad de sus usuarios más jóvenes:

  • “Todas aquellas cuentas pertenecientes a usuarios entre los 13 y los 15 años cambiarán su configuración automáticamente para que estas sean privadas por defecto” (aunque, como dijimos antes, imposible aplicar en las cuentas de todos aquellos menores que no pusieran su edad real al darse de alta).
  • “Los vídeos creados por menores de 16 años solo podrán ser comentados por Amigos o Nadie” (desaparece la opción de Todos).
  • “Las opciones de dúo y pegar solo estarán disponibles para mayores de 16 años”.
  • “La opción de permite la descarga de tus videos solo estará disponible en aquellos contenidos creados por usuarios mayores de 16 años”.
  • “La opción de recomienda tu cuenta a otros estará desactivada por defecto para aquellos usuarios que se encuentren entre los 13 y los 15 años”.

Estas nuevas actualizaciones se unen a los anteriores cambios, que incluían la imposibilidad de utilizar los mensajes directos y la realización de retransmisiones en directo por parte de usuarios menores de 16 años y las restricciones a la compra, envío y recepción de regalos virtuales para usuarios menores de 18 años.

Pero, aunque existan nuevas funciones para bloquear contenidos, mensajería o a usuarios, sin duda, la probabilidad de riesgos no desaparece. Los menores podrán seguir accediendo a retos de una manera u otra, ya sea a través de la plataforma o porque les llega enviados por sus amigos a través de WhatsApp. Supervisar su actividad en el móvil en edades tempranas es imprescindible.

Incluso puede ser una buena opción usar la aplicación en el móvil o tableta de los padres y madres para que los pequeños vean el contenido que les guste sin tener que crearse una cuenta (se puede descargar la app y visualizar vídeos y hashtags), si se considera que aún no es el momento para ello.

Educar es la mejor herramienta

El bloqueo de Italia de la plataforma ha abierto un profundo debate. Legalmente, los países europeos, incluido España, pueden solicitar esta medida de urgencia (proteger los datos de los menores, al no poder verificar la edad de sus usuarios) bajo el amparo del nuevo Reglamento General de Protección de Datos (RGPD).

La opción no debería ser bloquear o prohibir las plataformas, ya que si no es esta, habrá otra. La mediación parental y la educación digital en casa es siempre la mejor fórmula para hacer que nuestros hijos hagan un uso seguro y saludable de la tecnología.

Laura Cuesta Cano es responsable de Comunicación y Contenidos Digitales en Servicio PAD. Profesora, Universidad Camilo José Cela

© The Conversation. Republicado con permiso.