Não é culpa sua. Se o seu filho rola o feed até perder a noção da hora, se a sua filha volta para o aplicativo toda vez que o celular vibra, se um adolescente da sua casa foi abordado por um desconhecido em aplicativo de mensagens, se o conteúdo inadequado para menores apareceu cedo demais. Se a rotina da família virou uma guerra diária contra telas e algoritmos. Isso não é simplesmente falta de limites ou falha na sua criação. Porque nenhuma mãe, nenhum pai, nenhum avô ou avó consegue competir, sozinho, com uma tecnologia cuidadosamente desenhada para capturar e monetizar a atenção daqueles que as empresas chamam de “usuários”, sejam adultos, sejam crianças ou adolescentes. No Brasil, hoje, esse jogo começa a virar com o ECA Digital. A lei entrou em vigor nesta terça-feira, 17 de março de 2026, e o governo marcou para a mesma data o lançamento do decreto de regulamentação.
O que já está valendo na lei é bastante concreto: acaba a simples autodeclaração de idade em sites e produtos digitais restritos a menores de 18 anos; serviços de streaming passam a ter de observar classificação indicativa, perfis infantis, bloqueios e supervisão parental; buscadores devem ocultar ou sinalizar conteúdo sexualmente explícito e exigir verificação de idade para desbloqueio; e redes sociais devem criar versões sem materiais proibidos ou publicidade direcionada, além de vincular contas de menores de 16 anos às de seus responsáveis legais. O que se espera do decreto, segundo reportagens publicadas ontem e um rascunho preliminar do decreto obtido pela Tech Policy Press, é ainda mais incisivo: freio em rolagem infinita, autoplay e notificações com apelo emocional; além de medidas contra análise emocional, caixas de recompensa e técnicas de perfilamento comercial dirigidas a crianças e adolescentes. A implementação, porém, tende a ser escalonada, e dependerá de diretrizes posteriores da Agência Nacional de Proteção de Dados (ANPD).
No período entre a aprovação e a vigência da lei, as big techs já começaram a arrumar a casa – ou pelo menos dar aquela ajeitadinha na vitrine. Em janeiro de 2026, o blog oficial do YouTube anunciou a expansão para o Brasil de uma tecnologia que faz a estimativa de idade do usuário por meio de aprendizado de máquina. Em março, o WhatsApp anunciou “contas gerenciadas por pais”, dizendo que a novidade nasce de opiniões recebidas de “famílias e especialistas” e permitindo que responsáveis decidam quem pode entrar em contato com a conta, de quais grupos ela pode participar e quais configurações de privacidade serão usadas.
É interessante a linguagem usada pelas big techs ao fazerem esses anúncios. O YouTube diz que mantém “foco total” em garantir uma experiência “segura e adequada à idade” e afirma que “as famílias confiam no YouTube” para isso. O WhatsApp se descreve como “um espaço seguro usado para a comunicação das famílias” e diz estar oferecendo “mais ferramentas e insights para os pais, mães ou responsáveis”. Parece até acolhimento. Parece até uma parceria. Mas o subtexto é outro: a estratégia das empresas vai ser oferecer mais controle para as famílias. E mais controle significa mais responsabilidade – para você, pai, mãe ou responsável. Para as empresas, fica o mínimo.
O termo que mais apavora as big tech no jogo regulatório é o “dever de cuidado”, simplesmente porque elas não querem assumir o dever de cuidar das nossas crianças. O velho truque dessas empresas é transformar obrigações legais em recursos opcionais para o consumidor, e jogar uma cortina de fumaça de marketing por cima. Como se bastasse entregar mais um painel de controle, mais um PIN de quatro dígitos, mais uma configuração de privacidade, e a assimetria de poder entre famílias exaustas e corporações globais bilionárias desaparecesse por completo.
Em resumo: as big techs vão tentar fazer o mínimo. Precisamos pressionar para que elas façam mais.
Vamos ser honestos: essas novas funcionalidades, por melhores que sejam para garantir a integridade de crianças e adolescentes nas redes, não brotaram da boa vontade súbita das plataformas. Elas são resultado de debate público, pressão social, regulamentação e lei. A matéria da Tech Policy Press lembra que o ECA Digital foi acelerado depois da comoção nacional provocada pela denúncia de canais que lucravam com vídeos sexualizados de crianças no YouTube. Também lembra que, a partir desta semana, plataformas podem enfrentar advertências, multas de até US$10 milhões e, em casos extremos, suspensão ou banimento de suas tecnologias no país. A mesma reportagem resume bem o novo momento: as empresas não apenas têm meios para mudar práticas nocivas; como agora, no Brasil, têm a obrigação de fazê-lo.
A lição, para além da infância, é preciosa para todo o resto do mundo digital. Nada importante vai mudar porque uma plataforma “ouviu a comunidade” e teve uma epifania ética no caminho entre o Brasil e a Califórnia. O que muda produto é pressão social. O que muda design é custo político. O que vai transformar o modelo de operação das big techs é pressão popular organizada o suficiente para virar norma, fiscalização e risco real para quem lucra sem ter que lidar com os danos causados às pessoas e à sociedade.
O ECA Digital, assim como qualquer lei, não resolve tudo. A parte mais difícil começa agora, na implementação. Mas ele produz um deslocamento decisivo: tira o peso moral das costas das famílias, e recoloca a responsabilidade onde ela sempre deveria ter estado: nas empresas que desenham, operam e monetizam essas arquiteturas de captura de atenção.
Que a gente nunca mais se confunda: não é só em casa que precisamos criar limites. As empresas também precisam de controle.