Algoritmo de TikTok podría mostrar contenido violento; investigan exposición de material inapropiado
TikTok expone contenido violento y misógino a menores.
El algoritmo de TikTok, diseñado para mantener a los usuarios enganchados, podría exponer contenido violento y misógino a menores.
Una investigación realizada por Andrew Kaung, exanalista de seguridad de TikTok, reveló que la plataforma puede mostrar videos con violencia extrema y pornografía a algunos adolescentes varones.
Según Kaung, el combustible de los algoritmos es la interacción, sin importar si esta es positiva o negativa.
- Te Recomendamos Kate Middleton completa tratamiento de quimioterapia; brinda reflexión Tendencia
Los sistemas están diseñados para maximizar el tiempo que los usuarios pasan en la plataforma, mostrando videos que creen que verán durante más tiempo, comentarán o les darán "me gusta".
¿Cómo sucede esto?
El exanalista explica que el algoritmo que recomienda contenido para la sección "Para ti" de TikTok no siempre discrimina entre contenido dañino y no dañino.
Además, los equipos encargados del entrenamiento y la codificación del algoritmo no siempre conocen la naturaleza exacta de los videos que recomienda.
La investigación fue más allá y la Ofcom, el ente regulador de comunicaciones en Reino Unido, encontró que los algoritmos de la mayoría de las empresas de redes sociales recomiendan contenido dañino a menores, aunque no sea intencionalmente.
La Directora de Desarrollo de Políticas de Seguridad de Ofcom, Almudena Lara, indicó que "las empresas han hecho la vista gorda y han estado tratando a los menores como tratan a los adultos".
@tiktok 2x Paralympic silver medalist @Ali Truwit just baked cupcakes to rival the chocolate muffin ????
♬ original sound - TikTok
¿Cómo viven esto los menores?
En Reino Unido, un joven de 18 años identificado como ‘Cai’ aseguró que empezó a recibir recomendaciones de videos perturbadores cuando tenía 16.
Cai relató con la BBC que "de la nada" comenzaron a aparecerle videos de personas que sufrían atropellos, peleas violentas y monólogos de influencers que compartían opiniones misóginas.
Por otro lado, se vuelve aún más preocupante cuando se considera el caso de Nylah Anderson, una niña de 10 años que murió en 2021 tras intentar el "desafío del apagón", un reto peligroso que vio en TikTok.
El video apareció en su página "Para ti" sin que ella lo buscara, lo que ha llevado a un debate legal sobre la responsabilidad de la plataforma.
@tiktok strong support system and double knots for the win! we spoke with superwoman @Nada Hafez about her pre comp rituals ????
♬ original sound - TikTok
¿Qué dice TikTok?
TikTok asegura que usa "tecnología innovadora" y provee configuraciones de seguridad y privacidad para adolescentes.
Afirma que cuenta con sistemas que bloquean contenido potencialmente inapropiado y que no permite la violencia extrema ni la misoginia.
Sin embargo, casos como el de Cai y Nylah ponen en duda la efectividad de estas medidas.
Sin embargo, el escenario plantea un desafío significativo para las plataformas de redes sociales: cómo mantener a los usuarios enganchados sin exponerlos a contenido perjudicial.
Mientras las empresas luchan por encontrar un equilibrio, es clara la necesidad de supervisión y regulación para proteger a los usuarios más vulnerables, especialmente a los menores de edad.
Por: Mario Víctor Peña
- Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de TELEDIARIO; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.