Lives: moderação falha em um terreno lucrativo

Todos os dias, o ex-BBB Adriano Luiz Ramos de Castro — mais conhecido na internet como Didi Red Pill — entra ao vivo no YouTube para monetizar sua audiência. Entre pedidos de doações e um QR Code com seu Pix, que fica por minutos ao final da transmissão, Didi ataca ministros do Supremo Tribunal Federal e repete narrativas desinformativas sobre Jair Bolsonaro, ex-presidente condenado por tentativa de golpe de Estado.  

Dono de um canal que persiste há anos na plataforma de vídeos YouTube, Didi também transmitiu ao vivo os ataques de 8 de janeiro, dos quais participou e foi posteriormente condenado. Hoje, vive fora do Brasil, depois de exibir sua própria fuga para a Polônia durante uma de suas lives.  

Sua presença digital é parte de um cenário maior e mais preocupante. Plataformas como YouTube, X (antigo Twitter) e Meta (Facebook, Instagram e Threads) têm relaxado suas políticas de moderação, especialmente sobre temas como eleições e saúde pública. Um exemplo recente foi o anúncio feito pelo YouTube, em setembro de 2025, de que devolveria canais banidos por desinformação eleitoral e sobre a Covid nos Estados Unidos — decisão celebrada por influenciadores da extrema-direita americana e brasileira. 

  

Crimes ao vivo 

A flexibilização das regras preocupa porque o conteúdo nocivo transmitido ao vivo é especialmente difícil de conter. Basta lembrar o caso ocorrido em 2019, quando um extremista transmitiu pelo Facebook o massacre de 51 pessoas em duas mesquitas na Nova Zelândia. O vídeo se espalhou por milhões de cópias antes que as plataformas conseguissem reagir.  

Outro caso recente que estampou jornais em todo o mundo foi na Argentina, onde três mulheres foram brutalmente torturadas e assassinadas durante uma transmissão ao vivo no Instagram. Apesar de a live ter sido vista por dezenas de pessoas, os vídeos circularam livremente pela internet.  

Transmissões com discursos de ódio, ameaças ou desinformação sobre vacinas ou política continuam escapando da moderação — mesmo com o uso de inteligência artificial e filtros automáticos. 

 

 “O jeito era desligar a live” 

 E os danos não afetam apenas o público — criadores de conteúdo também viram alvo de ataques coordenados, e as plataformas pouco fazem para protegê-los. 

  Conversamos com um streamer com mais de 100 mil seguidores na Twitch, que preferiu não se identificar. Ele descreveu o impacto dos ataques organizados, que vinham de todos os lados:  

“Sofri ataques coordenados diversas vezes. Por serem coordenados, foram em mais de uma rede social, e todos acabavam sendo direcionados para as lives.” 

 As motivações? As mais variadas: 

“Raramente tinha a ver com algo que eu falei ou fiz. Já fui atacado por rixas entre fã-clubes, por posições políticas e até por processos judiciais em que os grupos escolhiam um lado para defender, independentemente da decisão da Justiça.”  

Diante da onda de mensagens de ódio, o criador conta que nem sempre conseguia seguir com a transmissão:  

“Tentei dar meu lado da história, mas é quase impossível se defender. O jeito era encerrar a live.”  

O streamer também relatou como se sente ao ser abandonado pela plataforma: 

 “O emocional é a parte mais difícil. Qualquer pessoa pode te acessar, quando menos se espera, sem se identificar e sem poder ser punida. Qualquer coisa pode ser dita, qualquer acusação pode ser feita — isso tudo enquanto você precisa criar conteúdo para os espectadores.” 

 “A falta de proteção é o maior problema, porque, no fim do dia, sabemos que não teremos amparo de forma alguma, mesmo que isso custe o salário do mês”, completou. 

 

 “A live perde o sentido” 

 Em momentos mais tensos, ele tentou limitar os comentários, mas a decisão trazia novos prejuízos: 

  “Privar novos comentários faz a live perder o sentido. Ninguém mais consegue interagir. O engajamento vai embora e, muitas vezes, não vale mais a pena continuar transmitindo.” 

Sem apoio da plataforma, a solução foi improvisar uma equipe própria de moderação: 

“Moderadores são pessoas que gostam de assistir e topam ajudar. Eu escolhia com base no comportamento deles no chat. Mas são voluntários, não têm estrutura. Não é justo depender só deles.” 

Essa lógica, comum entre criadores, escancara uma realidade: quem gera conteúdo precisa bancar a própria segurança — enquanto as plataformas lucram com cada clique.  

 

Plataformas dizem agir — mas é pouco, ou quase nada 

Na teoria, todas as grandes redes afirmam proibir desinformação e discurso de ódio. O YouTube diz usar uma combinação de IA e revisores humanos. A Twitch anuncia diretrizes rígidas contra assédio. A Meta mantém seus “Padrões da Comunidade”. Reportagens apontam como o Youtube e a Meta  vêm afrouxando suas regras sistematicamente. 

  Regular transmissões ao vivo é, de fato, um desafio técnico. Os vídeos são efêmeros, velozes, e os algoritmos ainda não conseguem captar nuances de tom ou ironia. 

  Mas o problema não é apenas técnico — é também político e econômico. Plataformas muitas vezes hesitam em intervir por medo de desagradar nichos radicais altamente engajados. 

 

SaferNet mostra que é possível 

Mesmo assim, há provas de que é possível agir com responsabilidade. 

Em 2021, durante a transmissão oficial da Parada LGBT+ de São Paulo, a ONG SaferNet atuou ativamente na moderação do chat. Com uma equipe treinada monitorando os comentários em tempo real, a transmissão — que alcançou mais de 2 milhões de pessoas — não registrou ameaças de morte ou discursos extremistas. 

A ação mostrou que, com estrutura e compromisso, é sim possível proteger criadores e público. 

A SaferNet usou as ferramentas de moderação do próprio YouTube e ampliou o filtro para 874 palavras, incluindo termos usados por pessoas que atacaram a transmissão em 2020. 

Isso mostra que há como fazer — e dinheiro não falta. 

Estudos acadêmicos já propõem soluções alternativas, como sistemas que identificam e bloqueiam apenas trechos problemáticos da transmissão, sem derrubar toda a live. Mas essas soluções ainda são pouco aplicadas. 

Por ora, a conta segue sendo paga pelos criadores e pelos usuários dessas plataformas.

 

Quem assina essa matéria: Luiz Kuczka (Licks), jornalista e membro da equipe de comunicação do Sleeping Giants Brasil: Arte: Upa.

Visão geral da privacidade

Este site usa cookies e ferramentas para que possamos oferecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis. Confira nossa política de privacidade.