O Youtube anunciou uma nova política que proíbe menores de 16 anos de criar canais na plataforma sem a supervisão dos pais ou responsáveis. Essa decisão, divulgada na terça-feira (17), está alinhada com a implementação do Estatuto da Criança e do Adolescente (ECA) Digital, que visa aumentar a proteção de crianças e adolescentes em ambientes online. A partir de agora, ao identificar que um canal pertence a um menor, a plataforma enviará uma notificação para que a conta seja vinculada a um responsável. Caso contrário, o menor perderá o acesso ao canal.
ECA Digital e suas implicações
O ECA Digital, que entrou em vigor na mesma data do anúncio do Youtube, estabelece diversas diretrizes para proteger crianças e adolescentes na internet. Dentre as regras, destaca-se que os responsáveis por influenciadores mirins precisarão de autorização judicial para monetizar os conteúdos produzidos pelos filhos em redes sociais. Essa medida busca garantir que as crianças não sejam exploradas financeiramente sem a devida supervisão.
Cancelamento da cerimônia de lançamento
Inicialmente, uma cerimônia estava prevista para marcar o lançamento do ECA Digital, que ocorreria no Palácio do Planalto. Entretanto, foi cancelada devido a solicitações do presidente, que desejava revisar alguns aspectos do decreto de regulamentação. O evento, que gerou expectativa entre os participantes, deve ser remarcado para esta quarta-feira (18), após discussões com ministros relevantes do governo.
Mudanças em outras plataformas
A implementação do ECA Digital não se restringe ao Youtube. Outras plataformas, como WhatsApp e TikTok, também introduziram ferramentas que permitem a vinculação de perfis a responsáveis. Essas inovações visam garantir a segurança dos usuários mais jovens, criando contas especiais para diferentes faixas etárias. O Instagram, por sua vez, já havia adotado medidas semelhantes há alguns meses.
Verificação de idade no Roblox
No início deste ano, o Roblox implementou uma verificação de idade, limitando o acesso de menores a determinados recursos, como chats durante os jogos. Essas ações refletem uma tendência crescente entre plataformas digitais de adotar medidas que aumentem a segurança e proteção de crianças e adolescentes.
Monetização e proteção de dados
A nova regulamentação exige que as plataformas comprovem a autorização judicial antes de permitir a monetização de conteúdos criados por crianças e adolescentes. Isso ocorre em um contexto onde vídeos com crianças atraem um número significativamente maior de visualizações, o que gera um interesse comercial crescente. Segundo dados de pesquisa, canais que apresentam vídeos com crianças têm, em média, 1,8 milhão de inscritos, enquanto canais sem esse tipo de conteúdo registram cerca de 1,2 milhão.
Uso de inteligência artificial para identificação de usuários
Outra medida anunciada pelo Youtube envolve um novo modelo de estimativa de idade que utiliza aprendizado de máquina. A plataforma implementará inteligência artificial para analisar o comportamento dos usuários, como vídeos assistidos e buscas, a fim de identificar se um usuário é menor de idade. Essa tecnologia permitirá que perfis de adolescentes tenham acesso restrito ao conteúdo, excluindo materiais impróprios, como aqueles com violência ou nudez.
Diretrizes para verificação de idade
A Agência Nacional de Proteção de Dados (ANPD) está desenvolvendo um manual com parâmetros mínimos para os mecanismos de verificação de idade. A proposta em análise busca garantir que as diretrizes sejam justas e inclusivas, respeitando a diversidade étnica da população brasileira. Além disso, o guia deve estabelecer padrões de qualidade, como precisão e transparência, permitindo auditorias para verificar a conformidade com as novas regras.
Essas iniciativas refletem uma preocupação crescente com a segurança de crianças e adolescentes no ambiente digital, buscando garantir que eles possam navegar na internet de maneira segura e protegida de conteúdos inadequados.
Fonte: https://jovempan.com.br