Câmara aprova projeto que combate adultização de crianças nas redes sociais

Câmara aprova projeto que combate adultização de crianças nas redes sociais


Ao defender projeto, Motta diz que ‘adultização’ é tema que saiu das telas e ganhou ruas
A Câmara dos Deputados aprovou nesta quarta-feira (20) projeto de lei que combate a adultização de crianças nas redes sociais.  O texto volta para nova análise do Senado, onde foi apresentado em 2022. 
O projeto estabelece uma série de obrigações aos provedores de redes sociais para impedir que crianças e adolescentes façam uso dessas plataformas, entre elas, garantir que haja vinculação das redes sociais de crianças e adolescentes a um responsável e remover conteúdo considerado abusivo para este público.
O objetivo da lei é garantir a proteção de crianças e adolescentes em ambientes digitais. Ela se aplicará sobre todo produto ou serviço de tecnologia da informação quando houver possibilidade de uso por crianças e adolescentes.
O descumprimento das medidas pode levar a multas que vão de R$10 por usuário cadastrado na plataforma até um limite de R$50 milhões, dependendo da infração. As empresas também poderão ter suas atividades suspensas temporariamente ou definitivamente em caso de descumprimento das medidas.
Foto de arquivo – Sessão na Câmara dos Deputados
Bruno Spada/Câmara dos Deputados
O que diz o projeto?
No caso de identificação de conteúdos de abuso sexual, sequestro, aliciamento e exploração, as empresas deverão comunicar imediatamente às autoridades nacionais e internacionais.
As empresas também devem disponibilizar meios para que todos os usuários meios sejam denunciados conteúdos com violações aos direitos de crianças e adolescentes. A partir da notificação, a informação deve ser repassada às autoridades para a instauração de investigação.
Para atender a uma demanda da oposição, o relator, deputado Jadyel Alencar (Republicanos-PI), limitou o escopo de denunciantes: apenas vítimas, responsáveis, Ministério Público ou por entidades representativas de defesa dos direitos de crianças e adolescentes, independentemente de ordem judicial.
Para que um conteúdo seja retirado do ar, o usuário que o publicou terá que ser previamente notificado sobre essa retirada, com a explicação do motivo, bem como se a análise do conteúdo foi feita de forma automatizada ou por uma pessoa.
Os usuários terão como recorrer da decisão a partir de um mecanismo que deve estar disponível de maneira acessível e clara na plataforma.
São considerado impróprios ou inadequados para crianças e adolescentes, pelo texto:
exploração e abuso sexual;
violência física, intimidação sistemática virtual e assédio;
indução, incitação, instigação ou auxílio a práticas que levem a danos à saúde física ou mental de crianças e adolescentes, como automutilação e uso de substâncias que causem dependência, por exemplo;
promoção e comercialização de jogos de azar, apostas, loterias, produtos de tabaco, bebidas alcoólicas, narcóticos ou produtos de comercialização proibida a crianças e adolescentes;
práticas publicitárias predatórias, injustas ou enganosas;
conteúdo pornográfico.
Caso uma denúncia seja feita de forma arbitrária, sanções também poderão ser adotadas, inclusive com a possibilidade de suspensão temporária ou perda da conta para quem fizer falsa denúncia reiteradamente.
Verificação de idade
Os fornecedores de produtos com conteúdo impróprio para menores de 18 anos deverão impedir o acesso por crianças e adolescentes. O projeto determina apenas que os fornecedores devem “adotar medidas eficazes” para isso, através de “mecanismos confiáveis de verificação de idade a cada acesso do usuário ao conteúdo”.
O projeto de lei proíbe que a conferência de idade seja feita através de autodeclaração do usuário.
O texto estabelece que o poder público poderá atuar como um regulador da verificação de idade, bem como certificar os processos e promover as soluções técnicas para que a idade do usuário seja aferida adequadamente.
No caso das redes sociais, o texto determina que contas de usuários com até 16 anos devem estar, obrigatoriamente, vinculadas à conta ou à identificação de um de seus responsáveis legais.
Os provedores poderão requerer dos responsáveis a verificação da identidade da criança ou do adolescente que solicitou acesso à plataforma.
Controle dos pais
O projeto também exige que as empresas disponibilizem para os meios mecanismos para garantir o acompanhamento do conteúdo acessado pelas crianças e adolescentes, bem como limitar o tempo de uso. Isso deve estar de forma transparente nas plataformas.
Segundo o texto, deverá ser disponibilizado um “exibir aviso claro e visível quando as ferramentas de supervisão parental estiverem em vigor”.
Medidas de prevenção
O projeto determina que os provedores elaborem políticas claras e eficientes de prevenção à intimidação e ao assédio no ambiente virtual.
Também caberá às empresas desenvolver programas educativos para crianças, adolescentes, pais, educadores, funcionários e equipes de suporte sobre os riscos, formas de prevenção e enfrentamento dessas práticas, nos termos de regulamento.
As redes que tiverem mais de 1 milhão de crianças ou adolescentes como usuários deverão apresentar um relatório semestral com a quantidade de denúncias de abusos recebidas, a quantidade de conteúdo que foi moderada, bem como o detalhamento do gerenciamento de risco à segurança e à saúde de crianças e adolescentes identificados.