O Senado deve votar nesta quarta-feira (27) o projeto de lei que combate a ‘adultização’ de crianças e adolescentes nas redes sociais. A informação foi confirmada pelo presidente da Casa, senador Davi Alcolumbre (União-AP) nesta terça-feira (26).
“O futuro do Brasil depende de como cuidamos das novas gerações. Ao assumir essa responsabilidade, o Parlamento cumpre seu dever de proteger a segurança, a dignidade e as oportunidades de nossas crianças e adolescentes”, disse Alcolumbre.
A proposta tem origem no Senado em 2022, mas sofreu modificações durante votação na Câmara, que aprovou o texto na semana passada. Caso seja aprovado, o projeto precisa ser sancionado pelo presidente Luiz Inácio Lula da Silva (PT) para começar a valer.
Senado volta a analisar projeto contra ‘adultização’
O tema ganhou força após um vídeo feito pelo influenciador Felca viralizar nas redes sociais. De autoria do senador Alessandro Vieira (MDB-ES), o projeto estabelece uma série de obrigações aos provedores de redes sociais.
Entre as obrigações, está a de garantir que haja vinculação das redes sociais de crianças e adolescentes a um responsável e a remoção de conteúdo considerado abusivo para este público.
O descumprimento das medidas pode levar a multas que vão de R$10 por usuário cadastrado na plataforma até um limite de R$50 milhões, dependendo da infração.
As empresas também poderão ter suas atividades suspensas temporariamente ou definitivamente em caso de descumprimento das medidas.
A proposta estabelece que, no caso de identificação de conteúdos de abuso sexual, sequestro, aliciamento e exploração, as empresas deverão comunicar imediatamente às autoridades nacionais e internacionais.
Além disso, as empresas também devem disponibilizar meios para que sejam denunciados conteúdos com violações aos direitos de crianças e adolescentes. A partir da notificação, a informação deve ser repassada às autoridades para a instauração de investigação.
Para que um conteúdo seja retirado do ar, o usuário que o publicou terá que ser previamente notificado sobre essa retirada, com a explicação do motivo, bem como se a análise do conteúdo foi feita de forma automatizada ou por uma pessoa.
O texto estabelece que são considerados impróprios ou inadequados para crianças e adolescentes conteúdos com:
exploração e abuso sexual;
violência física, intimidação sistemática virtual e assédio;
indução, incitação, instigação ou auxílio a práticas que levem a danos à saúde física ou mental de crianças e adolescentes, como automutilação e uso de substâncias que causem dependência, por exemplo;
promoção e comercialização de jogos de azar, apostas, loterias, produtos de tabaco, bebidas alcoólicas, narcóticos ou produtos de comercialização proibida a crianças e adolescentes;
práticas publicitárias predatórias, injustas ou enganosas;
conteúdo pornográfico.
Caso uma denúncia seja feita de forma arbitrária, sanções também poderão ser adotadas, inclusive com a possibilidade de suspensão temporária ou perda da conta para quem fizer falsa denúncia reiteradamente.
Verificação de idade
Os fornecedores de produtos com conteúdo impróprio para menores de 18 anos deverão impedir o acesso por crianças e adolescentes.
O projeto determina apenas que os fornecedores devem “adotar medidas eficazes” para isso, através de “mecanismos confiáveis de verificação de idade a cada acesso do usuário ao conteúdo”. A proposta proíbe que a conferência de idade seja feita através de autodeclaração do usuário.
O texto determina ainda que contas de usuários com até 16 anos devem estar, obrigatoriamente, vinculadas à conta ou à identificação de um de seus responsáveis legais e os provedores poderão solicitar a verificação da identidade da criança ou do adolescente que solicitou acesso à plataforma.
O projeto também exige que as empresas disponibilizem mecanismos para garantir o acompanhamento do conteúdo acessado pelas crianças e adolescentes, bem como limitar o tempo de uso.
Medidas de prevenção
A proposta determina que os provedores elaborem políticas claras e eficientes de prevenção à intimidação e ao assédio no ambiente virtual.
Também caberá às empresas desenvolver programas educativos para crianças, adolescentes, pais, educadores, funcionários e equipes de suporte sobre os riscos, formas de prevenção e enfrentamento dessas práticas.
As redes que tiverem mais de 1 milhão de crianças ou adolescentes como usuários deverão apresentar um relatório semestral com a quantidade de denúncias de abusos recebidas, a quantidade de conteúdo que foi moderada, bem como o detalhamento do gerenciamento de risco à segurança e à saúde de crianças e adolescentes identificados.
“O futuro do Brasil depende de como cuidamos das novas gerações. Ao assumir essa responsabilidade, o Parlamento cumpre seu dever de proteger a segurança, a dignidade e as oportunidades de nossas crianças e adolescentes”, disse Alcolumbre.
A proposta tem origem no Senado em 2022, mas sofreu modificações durante votação na Câmara, que aprovou o texto na semana passada. Caso seja aprovado, o projeto precisa ser sancionado pelo presidente Luiz Inácio Lula da Silva (PT) para começar a valer.
Senado volta a analisar projeto contra ‘adultização’
O tema ganhou força após um vídeo feito pelo influenciador Felca viralizar nas redes sociais. De autoria do senador Alessandro Vieira (MDB-ES), o projeto estabelece uma série de obrigações aos provedores de redes sociais.
Entre as obrigações, está a de garantir que haja vinculação das redes sociais de crianças e adolescentes a um responsável e a remoção de conteúdo considerado abusivo para este público.
O descumprimento das medidas pode levar a multas que vão de R$10 por usuário cadastrado na plataforma até um limite de R$50 milhões, dependendo da infração.
As empresas também poderão ter suas atividades suspensas temporariamente ou definitivamente em caso de descumprimento das medidas.
A proposta estabelece que, no caso de identificação de conteúdos de abuso sexual, sequestro, aliciamento e exploração, as empresas deverão comunicar imediatamente às autoridades nacionais e internacionais.
Além disso, as empresas também devem disponibilizar meios para que sejam denunciados conteúdos com violações aos direitos de crianças e adolescentes. A partir da notificação, a informação deve ser repassada às autoridades para a instauração de investigação.
Para que um conteúdo seja retirado do ar, o usuário que o publicou terá que ser previamente notificado sobre essa retirada, com a explicação do motivo, bem como se a análise do conteúdo foi feita de forma automatizada ou por uma pessoa.
O texto estabelece que são considerados impróprios ou inadequados para crianças e adolescentes conteúdos com:
exploração e abuso sexual;
violência física, intimidação sistemática virtual e assédio;
indução, incitação, instigação ou auxílio a práticas que levem a danos à saúde física ou mental de crianças e adolescentes, como automutilação e uso de substâncias que causem dependência, por exemplo;
promoção e comercialização de jogos de azar, apostas, loterias, produtos de tabaco, bebidas alcoólicas, narcóticos ou produtos de comercialização proibida a crianças e adolescentes;
práticas publicitárias predatórias, injustas ou enganosas;
conteúdo pornográfico.
Caso uma denúncia seja feita de forma arbitrária, sanções também poderão ser adotadas, inclusive com a possibilidade de suspensão temporária ou perda da conta para quem fizer falsa denúncia reiteradamente.
Verificação de idade
Os fornecedores de produtos com conteúdo impróprio para menores de 18 anos deverão impedir o acesso por crianças e adolescentes.
O projeto determina apenas que os fornecedores devem “adotar medidas eficazes” para isso, através de “mecanismos confiáveis de verificação de idade a cada acesso do usuário ao conteúdo”. A proposta proíbe que a conferência de idade seja feita através de autodeclaração do usuário.
O texto determina ainda que contas de usuários com até 16 anos devem estar, obrigatoriamente, vinculadas à conta ou à identificação de um de seus responsáveis legais e os provedores poderão solicitar a verificação da identidade da criança ou do adolescente que solicitou acesso à plataforma.
O projeto também exige que as empresas disponibilizem mecanismos para garantir o acompanhamento do conteúdo acessado pelas crianças e adolescentes, bem como limitar o tempo de uso.
Medidas de prevenção
A proposta determina que os provedores elaborem políticas claras e eficientes de prevenção à intimidação e ao assédio no ambiente virtual.
Também caberá às empresas desenvolver programas educativos para crianças, adolescentes, pais, educadores, funcionários e equipes de suporte sobre os riscos, formas de prevenção e enfrentamento dessas práticas.
As redes que tiverem mais de 1 milhão de crianças ou adolescentes como usuários deverão apresentar um relatório semestral com a quantidade de denúncias de abusos recebidas, a quantidade de conteúdo que foi moderada, bem como o detalhamento do gerenciamento de risco à segurança e à saúde de crianças e adolescentes identificados.