TikTok remove mais de 10 mil vídeos de atos de 8 de janeiro com ‘incitação à violência e promoção do terrorismo’
De acordo com a rede social, remoção foi motivada por violação de políticas da plataforma e trabalho em conjunto com o TSE para evitar a desinformação e discursos de ódio
A rede social TikTok informou que removeu da sua plataforma 10.437 vídeos com mensagens de incitação à violência ou desinformação durante e após os atos de 8 de janeiro, em que prédios públicos foram depredados por manifestantes. Segundo a empresa, foram 1.304 vídeos que violavam a política de extremismo violento, que engloba também ameaças e incitação à violência, bem como a promoção do terrorismo. Além disso, também foram retirados 5.519 vídeos por transgredirem a política de desinformação com riscos de danos no mundo real e 3.614 vídeos por violação da política de desinformação sobre eleição. “Por meio do canal exclusivo que tínhamos para receber do TSE extrajudicialmente conteúdos que eventualmente violassem nossas políticas, entre 15 de fevereiro e 31 de dezembro recebemos do tribunal para análise 128 links, dos quais removemos 106, um total de 82,8%. Ressaltamos que se trata de uma média de menos de 12 por mês. Ainda trabalhamos para cumprir todas as ordens judiciais que recebemos e, até o dia 31 de dezembro, o TikTok cumpriu 90 ordens judiciais recebidas, que determinaram a remoção de 222 links no total. Foram 52 ordens do TSE, determinando a remoção de 182 URLs, e 38 dos tribunais regionais eleitorais, determinando a exclusão de 40 URLs. Em relação aos eventos de 8 de janeiro, recebemos duas ordens judiciais, do Supremo Tribunal Federal, determinando a remoção de 5 links”, informou a companhia.
Demais redes sociais como Facebook, Instagram, Youtube, Telegram e Twitter não divulgaram dados referentes ao assunto. A Meta, dona do Facebook e Instagram, apresenta informações apenas sobre o primeiro turno das eleições de 2022, afirmando ter derrubado mais de 310 mil conteúdos. “Entre 16 de agosto e 2 de outubro, removemos mais de 310 mil conteúdos que violam nossas políticas de violência e incitação no Facebook e no Instagram. Outros mais de 290 mil conteúdos foram removidos no mesmo período por discurso de ódio”, afirma a empresa. Já o Youtube alega a remoção de mais de 10 mil vídeos e 2,5 mil canais. “Passamos a remover conteúdo que questionasse a integridade das eleições presidenciais brasileiras de 2014 e 2018 e, após o Tribunal Superior Eleitoral declarar os resultados das eleições de 2022 para presidente, expandimos nossa regra para proibir conteúdo que alegasse que a eleição deste ano foi fraudada. Assim, de março a novembro de 2022, encerramos mais de 2.500 canais e removemos mais de 10.000 vídeos relacionados às eleições no Brasil por violar nossas diretrizes. Mais de 84% dos vídeos removidos foram retirados antes de atingirem 100 visualizações”, declara a empresa.
Comentários
Conteúdo para assinantes. Assine JP Premium.