A discussão sobre a regulação de plataformas digitais no Brasil precisa ser situada em uma mudança mais ampla de paradigma. Se, em um primeiro momento, a internet foi marcada por uma narrativa de otimismo tecnológico, hoje nos encontramos em um cenário de incerteza estruturante. O desenvolvimento das tecnologias digitais ampliou possibilidades, mas também aprofundou desigualdades sociais, econômicas e informacionais, além de concentrar poder em atores privados que operam em escala global. Nesse contexto, usuários passam a ser frequentemente posicionados como consumidores passivos, enquanto saberes populares e demandas de grupos vulnerabilizados são sistematicamente silenciados.
É precisamente a partir desse diagnóstico que iniciativas como as do Instituto de Referência em Internet e Sociedade (IRIS), em articulação com a Coalizão Direitos na Rede, têm buscado incidir na formulação de políticas públicas capazes de reequilibrar as relações de poder na esfera digital. Assim, o advento do Estatuto Digital da Criança e do Adolescente (Lei nº 15.211/2025, ou ECA Digital) representa uma vitória histórica para a sociedade brasileira, consolidando a proteção integral dos direitos de um público que, pela nossa Constituição, tem garantia de prioridade absoluta. Trata-se de um marco relevante, ainda que não definitivo: longe de encerrar o debate, inaugura uma nova etapa na agenda regulatória brasileira.
smart_display
Nossos vídeos em destaque
A regulação de plataformas é um tema complexo que, em estratégia discurssiva de retroplanejamento, pode ser identifcado como tendo começado pelas crianças e adolescentes justamente por esse dever de proteção integral com prioridade absoluta. Pode-se defender que a proteção infantojuvenil foi priorizada justamente por sua centralidade constitucional. Crianças e adolescentes não são apenas consumidores de conteúdos ou dados, mas sujeitos de direitos cuja proteção demanda atenção tanto no consumo quanto na produção de conteúdos. O ECA Digital incorpora essa compreensão ao estabelecer um conjunto de deveres para plataformas, abrangendo desde restrições de acesso a conteúdos inadequados até a previsão de sanções administrativas, cuja implementação dependerá, em grande medida, da atuação da Autoridade Nacional de Proteção de Dados (ANPD). Mas, na verdade, a explicação é primordialmente histórica e conjuntural.
Convém reconhecer que a trajetória recente da regulação de plataformas no país foi marcada por frustrações, como a não aprovação do chamado “PL das fake news”, resultado, em grande medida, de uma mobilização inédita das próprias empresas de tecnologia. Nesse cenário, o ECA Digital emerge como um acordo mínimo possível, construído sob a pressão de evitar um vácuo normativo ainda mais grave no que diz respeito à proteção de crianças e adolescentes.
Voltanto ao ECA Digital, o texto não foca apenas no consumo de produtos impróprios, mas também na produção de conteúdos e na proteção contra a exploração comercial. Um exemplo fundamental é o veto à monetização de conteúdos de crianças “adultizadas”, que podemos carinhosamente chamar de “Artigo Felca” (art. 23), visando interromper o ciclo de exploração de vulneráveis:
- Art. 23. São vedados aos provedores de aplicações de internet a monetização e o impulsionamento de conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva ou em contexto próprio do universo sexual adulto.
Não precisamos de soluções simples e equivocadas para realidades hipercomplexas; precisamos de autonomia crítica e emancipação.
O Devido Processo na Moderação: A Arma Contra o Lado Sombrio
Entre os dispositivos mais inovadores da nova legislação, destaca-se o art. 30, que introduz, pela primeira vez no ordenamento jurídico brasileiro, um conjunto estruturado de garantias procedimentais aplicáveis à moderação de conteúdo. Trata-se da positivação do chamado “devido processo na moderação”, conceito que desloca para a esfera privada das plataformas digitais princípios historicamente associados à relação entre Estado e indivíduo.
Esse devido processo compreende, ao menos, cinco elementos fundamentais: (i) notificação das partes envolvidas; (ii) explicitação das razões da decisão de moderação, com indicação da norma violada; (iii) transparência quanto ao uso de automação ou intervenção humana; (iv) possibilidade de recurso; e (v) existência de mecanismos acessíveis, céleres e com prazos definidos para revisão das decisões. Em síntese, busca-se assegurar que decisões que impactam diretamente a liberdade de expressão não sejam tomadas de forma arbitrária ou opaca.
- Art. 30. No procedimento de retirada de conteúdo de que trata o art. 29 desta Lei, os fornecedores de produtos ou serviços deverão observar o direito de contestação da decisão, assegurando ao usuário que havia publicado o conteúdo:
I – a notificação sobre a retirada;
II – o motivo e a fundamentação da retirada, informando se a identificação do conteúdo removido decorreu de análise humana ou automatizada;
III – a possibilidade de recurso do usuário contra a medida;
IV – o fácil acesso ao mecanismo de recurso; e
V – a definição de prazos procedimentais para apresentação de recurso e para resposta ao recurso.
Esse artigo 30 do ECA Digital materializa um comando do Supremo Tribunal Federal sobre as obrigações adicionais das empresas, combatendo a omissão legislativa que forçou o Judiciário ao protagonismo na regulação das obrigações e responsabilidades dos provedores de aplicação de Internet, no julgamento do art. 19 do Marco Civil da Internet.
Agora, a moderação não pode ser arbitrária: as plataformas devem notificar, explicar a fundamentação da remoção, indicar se a verificação foi humana ou automatizada e oferecer mecanismos acessíveis de recurso. Esse direito ao contraditório garante a liberdade de expressão e a eficácia horizontal dos direitos fundamentais, funcionando como um parâmetro de justiça compartilhado.
A relevância desse avanço é reforçada por evidências empíricas: em mais de 80% dos casos em que o Poder Judiciário brasileiro reconhece a inadequação de uma decisão de moderação, o problema reside na ausência de fundamentação adequada. As plataformas, frequentemente, não conseguem explicar, nem mesmo em juízo, os critérios que levaram à remoção ou manutenção de determinado conteúdo. O ECA Digital, ao exigir justificativas claras e estruturadas, cria as condições para uma maior auditabilidade dessas decisões.
Esse modelo, embora inicialmente restrito à proteção de crianças e adolescentes, possui evidente potencial de expansão. A sua lógica pode e deve ser aplicada a outros contextos sensíveis, como o processo eleitoral, a proteção de jornalistas e a garantia do pluralismo informacional. Trata-se, portanto, de um laboratório normativo que pode orientar futuras regulações mais amplas sobre plataformas digitais.
Aferição de Idade vs. Verificação de Identidade: Não Entre em Pânico
Outro ponto crucial é a distinção técnica entre aferição de idade e verificação de identidade. A Coalizão Direitos na Rede (coletivo de dezenas de organizações da sociedade civil que atuam na pauta digital) defende que a proteção de crianças e adolescentes contra o acesso a conteúdos inadequados não deve permitir um panóptico de coleta de imagens de documentos, nem uma retenção em massa de dados de reconhecimento facial. A aferição etária deve ser realizada com base no princípio da minimização de dados: as plataformas precisam saber apenas se o usuário se enquadra em determinada faixa etária, sem acessar ou armazenar informações adicionais sobre sua identidade. A verificação de identidade, por sua vez, deve permanecer dissociada desse processo, de modo a evitar a construção de sistemas de vigilância indevida. Trata-se de um equilíbrio delicado entre proteção e privacidade, que exigirá soluções tecnológicas e regulatórias sofisticadas.
Essa é a “matemática da confiança” substituindo o banco de dados da vigilância total. A defesa da proteção do público infanto-juvenil não pode servir de pretexto para sacrificar a privacidade e a liberdade de expressão de pessoas adultas; exige apenas que paremos de usar ferramentas de controle do século XX para gerir as liberdades do século XXI.
Além disso, o ECA Digital introduz diretrizes importantes sobre proporcionalidade, gradação de medidas e vedação ao uso secundário de dados. Nesse contexto, lojas de aplicativos e sistemas operacionais são chamados a desempenhar um papel relevante como pontos de controle — verdadeiros gargalos regulatórios — capazes de implementar medidas de proteção em escala. Essa abordagem dialoga diretamente com o art. 227 da Constituição Federal e com o Estatuto da Criança e do Adolescente, ao reafirmar que a proteção infantojuvenil é uma responsabilidade compartilhada entre Estado, sociedade e setor privado.
Esse ponto é particularmente relevante diante de um cenário em que o Supremo Tribunal Federal tem assumido um papel cada vez mais protagonista na regulação da internet, em razão de omissões legislativas. A recente decisão que reconheceu a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet evidencia essa dinâmica, ao exigir maior clareza quanto às obrigações das plataformas. O ECA Digital, nesse sentido, pode ser interpretado como uma resposta legislativa inicial a essa demanda.
Soberania e a “Lasanha Digital” Brasileira
No plano internacional, observa-se uma mudança significativa no foco da responsabilização das plataformas. Se, no passado, a atenção recaía predominantemente sobre o conteúdo e seus autores, hoje o debate se desloca para os mecanismos de distribuição e amplificação, como se verificou em recentes decisões judiciais estadunidenses no Novo México e na Califórnia. O modelo de negócios das plataformas, baseado na maximização do engajamento, tem sido associado à promoção de conteúdos nocivos, inclusive para crianças e adolescentes. A regulação, portanto, precisa incidir não apenas sobre o que é publicado, mas sobre como e para quem esse conteúdo é disseminado.
Essa discussão se articula, ainda, com questões mais amplas de soberania digital. A chamada sociedade da informação não é um fenômeno neutro ou inevitável, mas o resultado de um projeto político e econômico que reorganiza a distribuição de poder, conhecimento e riqueza. Nesse contexto, países como o Brasil enfrentam o risco de reproduzir dinâmicas históricas de dependência, substituindo a condição de exportadores de commodities pela de fornecedores de infraestrutura e dados de baixo valor agregado, uma espécie de “colonialismo digital”.
A resposta a esse desafio passa pela construção de uma estratégia nacional que considere as múltiplas camadas da infraestrutura digital (da conectividade à inteligência artificial) de forma integrada. Trata-se de desenvolver uma “arquitetura tecnológica” alinhada aos interesses brasileiros, capaz de incorporar valores constitucionais e responder às especificidades sociais do país.
Não podemos aceitar que o Brasil deixe de ser uma “fazenda de soja” (ou de pau brasil, café, leite, cana de açúcar, etc.) para se tornar uma “fazenda de dados”, exportando o armazenamento de dados digitais brutos, com baixo valor agregado. Precisamos de uma “lasanha digital” (ou um Eurostack à brasileira): uma estrutura de camadas tecnológicas pensada por brasileiros para o Brasil, temperada com nossos próprios valores constitucionais.
Qualquer projeto de soberania digital que desconsidere as desigualdades estruturais internas estará condenado à incompletude. A ausência de diversidade nos espaços de decisão, inclusive em instâncias como o próprio Conselho de Comunicação Social, evidencia a necessidade de incorporar perspectivas racializadas, periféricas e interseccionais na formulação de políticas públicas. A chamada “sociologia das ausências” não é apenas um diagnóstico, mas um imperativo normativo para a construção de uma governança digital democrática.
Aprovado ano passado e em vigência desde 17 de março de 2026, o ECA Digital é a primeira lei pós-Marco Civil da Internet (aprovado em 2014) que trata especificamente do ambiente digital, reafirmando a força normativa da nossa “Constituição Cidadã” e do Estatuto da Criança e do Adolescente para o contexto da sociedade da informação. O Estado tem o dever constitucional e legal de interferir para proteger o melhor interesse da criança e do adolescente. E partindo da experiência de outros países nós não fomos simplistas em proibir as redes sociais: estabelecemos que, para atuar aqui, é preciso fazer a escolha, se será uma plataforma adequada para crianças e adolescentes, que precisa garantir essa adequação; ou se será uma plataforma para pessoas adultas, que precisa assegurar que não ocorra o acesso por crianças e adolescentes. Trata-se de exigir que as Big Techs e as demais empresas de tecnologia, como parte da sociedade, assumam o seu compromisso social de fazer parte da vila necessária para criar uma criança.
O Papel da ANPD e a Sociologia das Ausências
Para que o ECA Digital não se torne letra morta, a implementação dessas diretrizes dependerá, em larga medida, da atuação da renovada Agência Nacional de Proteção de Dados Pessoais (ANPD), que passa a assumir um papel central na governança da internet no Brasil. Com a ampliação de suas competências, a Autoridade será responsável por detalhar aspectos operacionais da lei, incluindo os mecanismos de aferição de idade e as responsabilidades de diferentes atores do ecossistema digital. A Agência, entre outros elementos, precisa de dotação orçamentária real, para não ser apenas um projeto no papel E será fundamental assegurar a participação social em seus processos decisórios, evitando a reprodução de dinâmicas tecnocráticas pouco permeáveis ao controle democrático.
O ECA Digital, portanto, não deve ser compreendido como um ponto de chegada, mas como um ponto de inflexão. Ele sinaliza que o Brasil voltou a legislar sobre o ambiente digital após mais de uma década desde o Marco Civil da Internet, inaugurando um novo ciclo de disputas e possibilidades. A agenda futura, que inclui a regulação da inteligência artificial, exigirá o mesmo nível de densidade analítica, participação social e compromisso com direitos fundamentais.
Para tanto, a governança da internet precisa ouvir vozes de comunidades vulnerabilizadas e invizibilizadas, garantindo que o combate ao racismo algorítmico e à misoginia esteja no centro das decisões. Qualquer projeto de soberania digital que ignore as dimensões de raça, classe e desigualdade estará incompleto. A sub-representação de pessoas negras e de grupos vulnerabilizados em espaços de decisão, como conselhos e instâncias deliberativas, compromete a qualidade e a legitimidade das políticas públicas. A incorporação de perspectivas diversas não é apenas uma questão de justiça social, mas um requisito para a construção de soluções efetivamente adequadas à complexidade da sociedade brasileira.
A sociedade da informação como modelo de organização econômica, tecnológica e política não é um fenômeno natural, mas um projeto concebido em meados do século XX e posto em prática na virada do milênio, quando pensadores como Manuel Castells anunciaram a chegada da Galáxia da Internet. Então cabe à sociedade exigir que esse arcabouço social sirva aos nossos interesses enquanto população humana, em toda nossa diversidade. Assim, o Parlamento, a sociedade civil e os órgãos reguladores devem agregar esforços para garantir que a inovação sirva ao desenvolvimento humano, e não ao aprofundamento das opressões e exclusões. O ECA Digital é o primeiro passo para reafirmarmos nossa soberania nacional na sociedade da informação.
Sem pânico moral e sem tecnosolucionismo
A regulação de plataformas não deve ser orientada por uma lógica sensacionalista e reativa de pânico moral, nem por uma visão de otimismo exagerado nas tecnologias digitais, ou de tecnossolucionismo. As redes sociais e demais serviços digitais não são, em si, a origem dos problemas, mas amplificam tensões já existentes, ao mesmo tempo em que oferecem novas possibilidades de organização, expressão e mobilização social. O desafio regulatório consiste, portanto, em mitigar riscos sem comprometer essas potencialidades.
O Brasil, após mais de uma década sem avanços legislativos estruturais no campo digital, começa a retomar esse debate com o ECA Digital. O próximo passo, que já se desenha no horizonte, envolve a regulação da inteligência artificial e a consolidação de um modelo de governança capaz de gerar respostas contínuas e adaptativas a um ambiente tecnológico em permanente transformação.
Em última instância, a questão que se coloca na regulação de plataformas é como garantir que as tecnologias digitais de informação e comunicação que estruturam a sociedade da informação estejam a serviço dos direitos fundamentais e do equilíbrio de forças entre poder público e interesses privados. Para isso, uma premissa se impõe como ponto de partida: não se pode delegar integralmente ao algoritmo da economia da atenção a tomada de decisões que impactam direitos, sejam de crianças e adolescentes, seja de qualquer pessoa.
- Texto adaptado, preservando o cerne das argumentações originais, a partir das contribuições apresentadas pelo autor durante a audiência pública, em torno do tema do ECA Digital na perspectiva da sociedade civil, realizada em 06 de abril de 2026 pelo Conselho de Comunicação Social do Congresso Nacional.
