
No esforço contínuo para proteger a plataforma durante eventos democráticos cruciais, o TikTok implementou um conjunto abrangente de medidas antes das próximas eleições portuguesas.
Como parte desta iniciativa, o TikTok lançou o Centro Eleitoral na aplicação a 18 de abril, um espaço projetado para conectar os utilizadores com informações certificadas, incluindo recursos oficiais da Comissão Eleitoral, datas importantes sobre as votações e dicas para identificar desinformação. Para promover a transparência, o TikTok também está a rotular conteúdos e resultados de pesquisa relacionados com as eleições, direcionando os utilizadores diretamente para o Centro Eleitoral. Estas iniciativas fazem parte da estratégia global mais ampla do TikTok para promover uma expressão segura, informada e autêntica durante as eleições.
Entre 14 e 27 de abril, o TikTok tomou as seguintes ações em Portugal:
- Removeu mais de 275 peças de conteúdo que violavam as políticas de integridade cívica e eleitoral, desinformação e conteúdo gerado por IA – com mais de 98% dos conteúdos a serem removidos antes de receberem qualquer denúncia.
- Preveniu proactivamente mais de 1.400.000 gostos falsos e mais de 942.000 pedidos de seguidores falsos, e bloqueou mais de 7.400 contas de spam de serem criadas em Portugal.
- Removeu mais de 45.000 contas falsas, mais de 390.000 gostos falsos e 26.000 seguidores falsos.
- As equipas especializadas do TikTok continuam a combater a interferência estrangeira e operações de influência dissimulada, e até agora, não descobriram nem desmantelaram qualquer operação de influência deste género especificamente dirigida às eleições portuguesas.
Além disso, o TikTok lançou um Hub Global de Integridade Eleitoral, fornecendo dados fidedignos sobre os esforços de fiscalização relacionados com as eleições em vários países. As eleições são momentos importantes de participação cívica e o TikTok continua comprometido em capacitar a liberdade de expressão, garantindo que a nossa comunidade se mantenha segura, autêntica e informada.