TikTok agregará una advertencia de “contenido perturbador” cuando los usuarios busquen ciertos términos

Nacional

A policy director with TikTok announced the decision Tuesday, explaining that the warning will appear
“when a user searches for terms that may bring up content that some may find distressing.” (Sean Gallup/Getty Images)

(NEXSTAR) – TikTok espera proteger a los usuarios de “contenido perturbador” con una nueva página de advertencia.

Un director de políticas de TikTok anunció la decisión el martes y explicó que aparecerá la advertencia.
“Cuando un usuario busca términos que pueden mostrar contenido que algunos pueden encontrar angustioso”. El aviso aparecerá sobre las páginas que contienen los resultados de la búsqueda, bloqueando temporalmente la vista del contenido hasta que los usuarios elijan participar haciendo clic en “mostrar resultados”.

En un comunicado de prensa, TikTok ofreció “maquillaje aterrador” como un término de búsqueda que provocaría tal advertencia, pero no dio más detalles sobre cómo determinaría o categorizaría los términos de búsqueda potencialmente angustiantes. Cuando se contactó, un representante de la plataforma ofreció ejemplos adicionales que incluían “sangre” y “maquillaje sfx” como búsquedas que darían una señal de advertencia.

Ya aparecen pantallas de advertencia similares en los videos de TikTok que se considera que contienen contenido sensible. La decisión de TikTok de extender las advertencias a los términos de búsqueda es uno de los últimos esfuerzos de la compañía para “mantener a TikTok como un espacio seguro”, según el comunicado de prensa.

Las advertencias de “contenido perturbador” para los términos de búsqueda comenzarán a aparecer este mes, confirmó TIkTok.

TikTok también anunció el martes que ofrecerá recursos adicionales para apoyar a los usuarios que pueden estar lidiando con pensamientos suicidas o trastornos alimentarios. Específicamente, TikTok señaló su nueva guía de bienestar disponible en su Centro de seguridad, junto con información y consejos para comunicarse con personas que pueden necesitar ayuda.

La noticia de la nueva política de TikTok llega una semana después de que el Wall Street Journal realizara una prueba de la función “Para ti” de la aplicación, que sugiere contenido basado en la actividad de un usuario. El estudio del medio encontró que el algoritmo de la aplicación sugería videos con contenido sexual y relacionado con drogas , incluso para cuentas registradas para adolescentes de hasta 13 años.

Una portavoz de TikTok le dijo al Journal que parte del contenido no violaba las políticas de la plataforma, pero confirmó que algunos de los videos habían sido eliminados desde entonces.

Mientras tanto, los videos que violan la política de actos peligrosos de TikTok están completamente prohibidos en la plataforma. Dichos videos incluyen todo lo que represente, normalice o promueva el suicidio, las autolesiones, los trastornos alimentarios, los actos peligrosos, el acoso, la desnudez o las actividades dañinas por o contra menores, entre otros tipos de contenido dañino.

El mes pasado, TikTok incluso había eliminado videos de personas que participaban en el “desafío de la caja de leche” de las redes sociales, en el que los usuarios intentaban subir y bajar escaleras improvisadas hechas de cajas de leche no aseguradas. En ese momento, la policía local y los departamentos de salud de todo el país habían señalado la tendencia, e incluso la FDA, como peligrosa.

Copyright 2021 Nexstar Media Inc. All rights reserved. This material may not be published, broadcast, rewritten, or redistributed.