Quando uma criança entra em um jogo, rede social ou aplicativo de vídeo em poucos cliques, a experiência parece simples e imediata. Do ponto de vista das empresas que desenvolvem e operam essas plataformas, entretanto, o cenário mudou de forma significativa. Com o chamado ECA Digital, plataformas, aplicativos e fabricantes de dispositivos que atuam no Brasil passam a enfrentar deveres mais claros quando seus serviços alcançam crianças e adolescentes.
Não se trata apenas de um ajuste jurídico pontual. Na prática, estamos diante de um movimento que exige revisão de produtos, fluxos de dados e estruturas de governança no ambiente digital.
O ponto de partida é compreender que não estamos diante de um novo ECA desconectado do restante do sistema jurídico. O que ocorre é a tradução para o ambiente digital de princípios já consolidados no direito brasileiro, como o melhor interesse da criança, a proteção integral e a prioridade absoluta.
Se no mundo offline esses princípios se expressam em regras sobre educação, saúde e convivência familiar, no ambiente digital eles se transformam em perguntas concretas para empresas de tecnologia. Como verificar a idade dos usuários? Quais dados pessoais são coletados de menores? Que conteúdos e anúncios são direcionados a esse público? Quem responde internamente quando algo dá errado?
O ECA Digital dialoga diretamente com a Lei Geral de Proteção de Dados e com uma tendência regulatória global voltada à proteção de crianças na internet. Países como Reino Unido, Austrália e diversos membros da União Europeia vêm adotando códigos de design adequado à idade e restrições à publicidade direcionada a menores.
Neste artigo, a expressão “ECA Digital” é empregada para se referir à Lei nº 15.211, de 17 de setembro de 2025, que dispõe sobre a proteção de crianças e adolescentes em ambientes digitais e é denominada, em sua ementa, Estatuto Digital da Criança e do Adolescente. A nova disciplina dialoga diretamente com o Estatuto da Criança e do Adolescente (Lei nº 8.069/1990), com o Marco Civil da Internet (Lei nº 12.965/2014) e com a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), especialmente no que se refere ao tratamento de dados pessoais de crianças e adolescentes.
O Brasil passa a integrar esse movimento, impondo deveres que alcançam não apenas grandes plataformas globais, mas também startups, edtechs, aplicativos de entretenimento e serviços digitais diversos que, direta ou indiretamente, atendem o público infantojuvenil.
Nesse contexto, três perguntas ajudam a traduzir os princípios do ECA Digital em decisões concretas de produto, tecnologia e governança.
A empresa sabe quando um usuário é criança ou adolescente?
Durante anos, o modelo implícito do mercado digital foi simples: pergunta-se a idade e o usuário marca uma caixa afirmando ter mais de dezoito anos. Na prática, trata-se de um sistema baseado na autodeclaração.
Sob a ótica do ECA Digital, esse modelo deixa de ser suficiente, sobretudo em serviços que apresentam maior exposição a riscos, como redes sociais, jogos com chat aberto ou aplicativos com microtransações.
Isso não significa que todas as empresas precisarão adotar mecanismos invasivos de identificação. Contudo, torna-se necessário reconhecer que muitos produtos classificados como serviços gerais são, na prática, amplamente utilizados por crianças e adolescentes.
Nesse cenário, empresas precisam revisar seus fluxos de cadastro e acesso, avaliando como a idade é coletada, verificada e tratada dentro da plataforma. Serviços de maior risco podem exigir mecanismos adicionais, como confirmação por responsável legal ou validação por intermediários confiáveis.
Do ponto de vista de produto, isso implica abandonar a lógica do modelo único para todos os usuários. A experiência digital destinada a adultos não pode ser replicada automaticamente para uma criança. Essa diferenciação só se torna possível quando a empresa possui um grau razoável de confiança sobre quem está do outro lado da tela.
Os responsáveis têm controle real sobre o uso da plataforma?
No discurso público, costuma-se afirmar que pais e responsáveis devem acompanhar o uso da tecnologia pelos filhos. Na prática, se esse controle depende de menus complexos ou configurações pouco intuitivas, ele se torna ilusório.
O ECA Digital desloca a responsabilidade da retórica para o design. Não basta que o controle parental exista formalmente. Ele precisa fazer parte da experiência normal do serviço.
Isso pode incluir a vinculação entre contas de menores e contas de responsáveis legais, oferecendo visibilidade mínima sobre tempo de uso, funcionalidades acessadas e eventuais gastos realizados na plataforma.
Também se tornam importantes painéis simples de supervisão, que permitam ajustar limites de uso, restrições de contato ou permissões de funcionalidades sem exigir conhecimento técnico.
Outro aspecto relevante diz respeito às configurações padrão. Se, por padrão, o perfil de um usuário menor é público, o chat está aberto e todas as notificações estão ativadas, a plataforma transfere o ônus da proteção para famílias que muitas vezes não possuem tempo ou conhecimento para ajustar essas configurações.
Um modelo compatível com as novas exigências tende a adotar configurações mais restritivas para contas de menores como ponto de partida, ampliando funcionalidades gradualmente conforme a idade ou mediante consentimento do responsável.
Como a empresa trata dados, publicidade e conteúdo sensível?
O terceiro eixo do debate envolve o coração dos modelos de negócio digitais: dados, publicidade e distribuição de conteúdo.
Crianças e adolescentes são considerados titulares especialmente vulneráveis no tratamento de dados pessoais. Isso impõe limites mais rigorosos à coleta, ao perfilamento comportamental e ao uso dessas informações para publicidade direcionada.
Na prática, empresas precisam revisitar seus sistemas de cadastro, mecanismos de rastreamento digital, estratégias de análise comportamental e práticas de consentimento. O consentimento do responsável legal não pode ser interpretado como autorização genérica para coleta ampla de dados, devendo ser específico e proporcional às finalidades do tratamento.
A publicidade dirigida a esse público também tende a enfrentar maior escrutínio regulatório, especialmente quando explora vulnerabilidades típicas da infância, como personagens, recompensas digitais ou influenciadores infantojuvenis.
Outro ponto central envolve a gestão de conteúdos potencialmente prejudiciais, como violência extrema, desafios perigosos, automutilação ou práticas ilegais. Plataformas precisam desenvolver políticas claras de moderação, canais eficazes de denúncia e mecanismos de resposta rápida quando incidentes envolvendo menores são reportados.
O dever mínimo de adaptação
Diante desse cenário, empresas que desejam atuar de forma responsável precisam iniciar um processo estruturado de adaptação. Entre os passos mais imediatos estão:
- mapear produtos e serviços utilizados por crianças e adolescentes;
- revisar mecanismos de verificação de idade;
- adaptar interfaces e comunicações para linguagem adequada à faixa etária;
- reavaliar práticas de coleta e uso de dados;
- revisar estratégias de publicidade direcionada;
- fortalecer políticas de moderação e denúncia;
- estabelecer governança interna clara sobre responsabilidades relacionadas ao tema.
Mais do que uma nova obrigação regulatória
O ECA Digital não representa apenas mais uma camada de regulação sobre empresas de tecnologia. Ele coloca uma questão mais profunda sobre a relação entre plataformas digitais e infância.
Crianças e adolescentes não são usuários plenamente autônomos. Eles possuem menor capacidade de compreender riscos e maior suscetibilidade a mecanismos de recompensa e pressão social. Ignorar essas assimetrias e tratar todos os usuários como adultos é, em última instância, uma escolha empresarial.
Para organizações que desejam ir além do mínimo regulatório, o ECA Digital pode servir como ponto de partida para um diagnóstico mais amplo sobre o impacto de seus produtos na vida de crianças e adolescentes.
Mais do que evitar sanções, trata-se de alinhar o funcionamento das plataformas com um compromisso fundamental: garantir que o ambiente digital também seja um espaço seguro para quem ainda está em processo de formação.
[1] Adriana Cardoso de Moraes Cansian é advogada (OAB/SP 332.517), Doutora em Direito Comercial pela Universidade de São Paulo (USP) e especialista em Direito Digital e Proteção de Dados. Atua em consultoria jurídica nas áreas de governança digital e cibersegurança, além de desenvolver pesquisa acadêmica sobre regulação e governança de tecnologias. [1] Neste artigo, a expressão “ECA Digital” é empregada para se referir à Lei nº 15.211, de 17 de setembro de 2025, que dispõe sobre a proteção de crianças e adolescentes em ambientes digitais e é denominada, em sua ementa, Estatuto Digital da Criança e do Adolescente. A nova disciplina dialoga diretamente com o Estatuto da Criança e do Adolescente (Lei nº 8.069/1990), com o Marco Civil da Internet (Lei nº 12.965/2014) e com a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), especialmente no que se refere ao tratamento de dados pessoais de crianças e adolescentes.
