¿TikTok censura contenido?
Redes sociales
Investigaciones periodísticas han publicado que la red social censura información crítica con el partido comunista chino y favorece el contenido de personas atractivas
Alrededor de 800 millones de usuarios en todo el mundo usan TikTok , una aplicación para compartir vídeos. La aplicación está disponible en más de 150 países y una parte importante de los usuarios son adolescentes o jóvenes.
La mayoría de sus jóvenes usuarios usa la aplicación para compartir bailes virales, tutoriales, bromas o incluso imágenes de ellos mismos pretendiendo cantar canciones de sus artistas favoritos.
La aplicación, del mismo modo que otras redes sociales como Instagram o Facebook, tiene moderadores que censuran imágenes no permitidas en sus normas de uso. Por ejemplo, el contenido pornográfico. También cierra las cuentas de personas que aparecen con armas y bloquea temporalmente las cuentas de aquellos que publican contenido peligroso. Por ejemplo, bailar con un cuchillo en la mano.
Veto a los mensajes críticos con el Partido Comunista de China
Sin embargo, varias investigaciones periodísticas han publicado que la aplicación bloquea, censura o minimiza el alcance de otro tipo de publicaciones.
La aplicación TikTok es propiedad de la empresa ByteDance, con sede en Beijing, capital de China. El país es conocido, entre otras cosas, por su censura en internet y en sus redes sociales de aquellos contenidos que critican el Partido Comunista Chino o que difunden mensajes contrarios al régimen.
Según una publicación del medio periodístico de investigación The Intercept , a los moderadores se les pidió que censuraran el discurso político en las transmisiones en vivo de TikTok, castigando a aquellos que dañaron el “honor nacional” o transmitieron vídeos sobre “órganos estatales como la policía”.
En septiembre del año pasado, The Guardian también reveló documentos internos de la compañía en los que censuraba, ya fuese eliminándolos directamente o penalizando su difusión, contenido crítico con el régimen chino.
Por ejemplo, se censuran las menciones a los incidentes de la plaza de Tiananmen: en el año 1989, miles de estudiantes se manifestaron para reclamar más derechos y libertades. Protestaban contra el régimen comunista , que consideraban corrupto y represivo. El gobierno decidió suprimir las movilizaciones por la fuerza. El ejército envió soldados y tanques a la plaza y abrió fuego contra los estudiantes.
También se censura el contenido que muestra las protestas en Hong Kong o las apoya, comentarios sobre la independencia del Tíbet o referencias a la represión que las autoridades chinas llevan a cabo contra la minoría musulmana del país.
Discriminación a usuarios por su apariencia física
Además, la misma investigación de The Intercept señala que TikTok perjudica mediante un algoritmo la difusión de vídeos en los que se muestra la pobreza rural, barrios marginales o incluso a personas con “forma corporal anormal, gorditos, con una obvia barriga cervecera o demasiado delgadas”.
Las “personas pobres” o que no se consideren atractivas son especialmente vetadas de la sección “For you”, en la que los vídeos tienen mayor difusión. El documento interno de la compañía señala que se les excluye porque pueden “disminuir la tasa de retención de nuevos usuarios”. Es decir, que su apariencia llevaría a un menor uso de TikTok.
El documento también pide bloquear el contenido en el que aparezcan “grietas en la pared” o “decoraciones viejas”.
En diciembre la publicación alemana Netzpolitik avanzó que TikTok penalizaba la difusión de vídeos creados por usuarios discapacitados, con sobrepeso o homosexuales, para, según la red social, evitar casos de acoso en la red.
Pero la supuesta intención de evitar el bullying no aparece en los documentos, que solo citan la necesidad de mostrar contenidos “atractivos” y “sofisticados” en sus canales de recomendación.
El portavoz de TikTok explicó a The Interceipt que las recomendaciones que aparecen en los documentos filtrados “ya no se usaban o no se habían usado nunca”, aunque el funcionamiento del algoritmo de TikTok no es claro.
La división estadounidense de la propia plataforma anunció la creación de un “centro de transparencia” para explicar como se modera el contenido y la moderación y qué se hace con los datos de los usuarios. Esta entidad busca ofrecer a expertos externos la posibilidad de ver directamente la manera en la que los equipos de TikTok afrontan la tarea de moderar el contenido de la plataforma.
Junior Report diseña unidades didácticas para leer y trabajar la actualidad en el aula. También ofrece recursos de educación mediática para fomentar la lectura crítica de los medios de comunicación. ¡Consulta nuestra web!
Fuentes: The Intercept , The Guardian , Netzpolitik , La Vanguardia