Entre a lei e o algoritmo: como enfrentar a adultização digital de crianças e adolescentes

0
41

IMAGEM: YouTube/reprodução |  Fonte: Diário do Comércio

Nádia M. de Faria e Cunha*

A recente repercussão de um vídeo do influenciador Felca nas redes sociais, que expôs situações de adultização e exposição de crianças e adolescentes, reacendeu o debate sobre a presença de menores no ambiente digital. Para se entender a dimensão do tema social, importante entender que se trata de uma questão jurídica, já regulada por normas que impõem deveres claros tanto a criadores de conteúdo quanto às plataformas nas quais são divulgados e reproduzidos por seus usuários.

A Lei Geral de Proteção de Dados Pessoais (LGPD – Lei nº 13.709/2018) prevê, no artigo 14, que o tratamento de dados de crianças e adolescentes deve sempre atender ao melhor interesse do menor, com consentimento específico e destacado de pelo menos um dos pais ou responsável legal. As informações sobre coleta e uso devem ser claras, acessíveis e adequadas à compreensão do público-alvo, sendo vedado o repasse a terceiros sem autorização.

Mas surge uma questão relevante: quando a exposição parte dos próprios pais ou responsáveis, que publicam vídeos, imagens ou dados pessoais dos filhos em redes sociais, prática conhecida como sharenting, como a lei encara essa situação? O consentimento dado por quem detém a autoridade sobre a criança é suficiente ou, ainda assim, deve prevalecer a análise sobre o melhor interesse e a proteção contra possíveis riscos?

Pela própria redação do artigo 14 da LGPD, em consonância com as demais leis que tratam do direito da criança e do adolescente, podemos concluir que o consentimento parental não autoriza automaticamente qualquer forma de divulgação.

A exposição excessiva, mesmo feita por familiares, pode ser questionada se colocar em risco a privacidade, a segurança ou a dignidade do menor, considerando ainda o direito que a própria criança poderá exercer futuramente de limitar ou excluir tais tipos de conteúdo.

Em outra frente, temos o Marco Civil da Internet (Lei nº 12.965/2014) que passou, em junho deste ano, por uma alteração de interpretação no Supremo Tribunal Federal. A corte decidiu ser possível responsabilizar plataformas pela não remoção imediata, após notificação extrajudicial, de conteúdos ilícitos e gravíssimos, como exploração sexual de menores, discurso de ódio e incentivo à automutilação ou suicídio. A decisão reforçou o dever de cuidado proativo das empresas, exigindo mecanismos de prevenção, detecção e resposta.

Essas duas frentes se complementam: a LGPD estabelece regras rígidas para coleta e uso de dados de menores, em consonância com a legislação brasileira de proteção à criança e ao adolescente, enquanto a decisão do STF amplia a responsabilidade das plataformas na moderação de conteúdos nocivos.

Diante disso, é necessário refletir sobre como esses dados estão sendo tratados na prática. Se os pais ou responsáveis extrapolam na decisão sobre a exposição dos seus filhos e tutelados nas redes sociais. E se as plataformas onde essa exposição ocorre e se propaga rapidamente, exercem, de forma consistente, a moderação exigida pela lei.

Ainda importante discutirmos sobre os mecanismos que podem ser adotados, como por exemplo, se conteúdos dessa natureza podem, ou devem, ser monetizados, e quais efeitos isso tem na forma como são produzidos e disseminados.

São perguntas que não têm respostas simples, mas que precisam estar no centro do debate sobre segurança e ética digital, com base no que já temos no nosso ordenamento jurídico, sem prejuízo de medidas legislativas que venham a reforçar essa segurança.

*Nádia M. de Faria e Cunha é membro da Comissão de Privacidade, Proteção de Dados e Inteligência Artificial da (OAB/SP) e da APDADOS – Associação Nacional dos Profissionais de Privacidade de Dados. Sócia em Jorge Advogados

“Este texto não reflete, necessariamente, a opinião do Jornal Hoje em Dia”.

Fonte: Hoje em Dia

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here