Dino determina que Câmara apresente informações sobre urgência na votação do ‘PL
da Adultização’
O pedido do ministro partiu de um mandado de segurança movido pelo deputado
Marcos Pollon (PL-MS), que busca anulação do procedimento feito pelo presidente
da Câmara, Hugo Motta (Republicanos-PB)
O ministro do Supremo Tribunal Federal (STF
[https://g1.globo.com/tudo-sobre/supremo-tribunal-federal/]) Flávio Dino
[https://g1.globo.com/tudo-sobre/flavio-dino/] determinou que a Câmara dos
Deputados apresente informações sobre o processo que viabilizou a urgência do
chamado “PL da Adultização”.
O pedido do ministro partiu de um mandado de segurança movido pelo deputado
Marcos Pollon (PL-MS), que busca anulação do procedimento pautado pelo
presidente da Câmara, Hugo Motta (Republicanos-PB).
A votação da urgência do PL ocorreu de forma simbólica, sem o registro de votos
dos deputados. Plenário da Câmara aprova regime de urgência para projeto contra adultização em
plataformas digitais.
Na ocasião, a velocidade do procedimento foi alvo de protestos da oposição. O
partido Novo chegou a pedir o registro dos votos dos deputados, mas Motta
afirmou que o pedido foi feito após a aprovação de forma simbólica.
O pedido de informações é previsto na legislação que regula a tramitação de
mandados de segurança — o tipo de ação apresentado pelo deputado.
O ministro do Supremo Tribunal Federal (STF), Flávio Dino, em 27/06/2025.
— Foto: Wilton Junior/Estadão Conteúdo
ADULTIZAÇÃO
O regime de urgência do projeto da adultização foi aprovado na última
terça-feira (19) na Câmara. Um dia depois, os deputados aprovaram o conteúdo do
projeto, que volta para análise no Senado, onde foi apresentado em 2022.
O projeto estabelece uma série de obrigações aos provedores de redes sociais
para impedir que crianças e adolescentes façam uso dessas plataformas, entre
elas, garantir que haja vinculação das redes sociais de crianças e adolescentes
a um responsável e remover conteúdo considerado abusivo para este público.
O objetivo da lei é garantir a proteção de crianças e adolescentes em ambientes
digitais. Ela se aplicará sobre todo produto ou serviço de tecnologia da
informação quando houver possibilidade de uso por crianças e adolescentes.
O descumprimento das medidas pode levar a multas que vão de R$10 por usuário
cadastrado na plataforma até um limite de R$50 milhões, dependendo da infração.
As empresas também poderão ter suas atividades suspensas temporariamente ou
definitivamente em caso de descumprimento das medidas.
O QUE DIZ O PROJETO?
No caso de identificação de conteúdos de abuso sexual, sequestro, aliciamento e
exploração, as empresas deverão comunicar imediatamente às autoridades nacionais
e internacionais.
As empresas também devem disponibilizar meios para que todos os usuários possam
denunciar conteúdos com violações aos direitos de crianças e
adolescentes. A partir da notificação, a informação deve ser repassada às
autoridades para a instauração de investigação.
Para atender a uma demanda da oposição, o relator, deputado Jadyel Alencar
(Republicanos-PI), limitou o escopo de denunciantes: apenas vítimas,
responsáveis, Ministério Público ou por entidades representativas de defesa dos
direitos de crianças e adolescentes, independentemente de ordem judicial
Para que um conteúdo seja retirado do ar, o usuário que o publicou terá que ser
previamente notificado sobre essa retirada, com a explicação do motivo, bem como
se a análise do conteúdo foi feita de forma automatizada ou por uma pessoa.
Os usuários terão como recorrer da decisão a partir de um mecanismo que deve
estar disponível de maneira acessível e clara na plataforma.
São considerados impróprios ou inadequados para crianças e adolescentes, pelo
texto:
– exploração e abuso sexual;
– violência física, intimidação sistemática virtual e assédio;
– indução, incitação, instigação ou auxílio a práticas que levem a danos
à saúde física ou mental de crianças e adolescentes, como automutilação e
uso de substâncias que causem dependência, por exemplo;
– promoção e comercialização de jogos de azar, apostas, loterias, produtos
de tabaco, bebidas alcoólicas, narcóticos ou produtos de comercialização
proibida a crianças e adolescentes;
– práticas publicitárias predatórias, injustas ou enganosas;
Caso uma denúncia seja feita de forma arbitrária, sanções também poderão ser
adotadas, inclusive com a possibilidade de suspensão temporária ou perda da
conta para quem fizer falsa denúncia reiteradamente.
VERIFICAÇÃO DE IDADE
Os fornecedores de produtos com conteúdo impróprio para menores de 18 anos
deverão impedir o acesso por crianças e adolescentes. O projeto determina
apenas que os fornecedores devem “adotar medidas eficazes” para isso, através de
“mecanismos confiáveis de verificação de idade a cada acesso do usuário ao
conteúdo”.
O projeto de lei proíbe que a conferência de idade seja feita através de
autodeclaração do usuário.
O texto estabelece que o poder público poderá atuar como um regulador da
verificação de idade, bem como certificar os processos e promover as soluções
técnicas para que a idade do usuário seja aferida adequadamente.
No caso das redes sociais, o texto determina que contas de usuários com até 16
anos devem estar, obrigatoriamente, vinculadas à conta ou à identificação de
um de seus responsáveis legais.
Os provedores poderão requerer dos responsáveis a verificação da identidade da
criança ou do adolescente que solicitou acesso à plataforma.
CONTROLE DOS PAIS
O projeto também exige que as empresas disponibilizem meios mecanismos
para garantir o acompanhamento do conteúdo acessado pelas crianças e
adolescentes, bem como limitar o tempo de uso. Isso deve estar de forma
transparente nas plataformas.
Segundo o texto, deverá ser disponibilizado um “exibir aviso claro e visível
quando as ferramentas de supervisão parental estiverem em vigor”.
MEDIDAS DE PREVENÇÃO
O projeto determina que os provedores elaborem políticas claras e eficientes de
prevenção à intimidação e ao assédio no ambiente virtual.
Também caberá às empresas desenvolver programas educativos para crianças,
adolescentes, pais, educadores, funcionários e equipes de suporte sobre os
riscos, formas de prevenção e enfrentamento dessas práticas, nos termos de
regulamento.
As redes que tiverem mais de 1 milhão de crianças ou adolescentes como usuários
deverão apresentar um relatório semestral com a quantidade de denúncias de
abusos recebidas, a quantidade de conteúdo que foi moderado, bem como o
detalhamento do gerenciamento de risco à segurança e à saúde de crianças e
adolescentes identificados.
– Esta reportagem está em atualização