Documento assinado digitalmente conforme MP nº 2.200-2 de 24/08/2001, que institui a Infraestrutura de Chaves Públicas Brasileira - ICP-Brasil. Este documento pode ser verificado no endereço eletrônico http://www.in.gov.br/autenticidade.html, pelo código 05152024040900043 43 Nº 68, terça-feira, 9 de abril de 2024 ISSN 1677-7042 Seção 1 finalidades específicas e, sempre que possível, junto à criança ou adolescente, observado seu grau de maturidade e compreensão sobre os efeitos do consentimento. Parágrafo único. O consentimento fornecido pela criança ou adolescente poderá ser retirado a qualquer momento, devendo a decisão ser respeitada pelos pais, cuidadores e demais responsáveis. Art. 15 Os dados pessoais de crianças e adolescentes não devem ser utilizados para fins comerciais, como criação e definição de perfis de comportamento, consumo e segmentação mercadológica, tampouco para direcionamento de publicidade ou ampliação de seu alcance, conforme disposto na Resolução CONANDA nº 163 de 13 de março de 2014. Art. 16 Qualquer tipo de mecanismo de vigilância e monitoramento digital de crianças e adolescentes, associado a ferramentas de automação e tratamento de dados pessoais, deve respeitar seu direito à privacidade e não deve ser utilizado de forma indiscriminada e injustificável. Parágrafo único. Quando forem utilizados mecanismos de segurança, justificada a garantia de direitos e o interesse superior de crianças e adolescentes, devem ser priorizadas as medidas menos invasivas, sendo imprescindível que a criança ou adolescente tenha conhecimento sobre seu funcionamento e que lhe seja dado o direito de manifestar oposição, observado seu grau de maturidade e compreensão. CAPÍTULO V Do dever de cuidado e das responsabilidades das empresas provedoras de produtos e serviços digitais Art. 17 As empresas provedoras de produtos e serviços digitais utilizados por crianças e adolescentes, em funcionamento no Brasil, inclusive aquelas sediadas no exterior, são responsáveis pela implementação e garantia dos direitos deste público, nos ambientes digitais por elas produzidos e regulados. §1º A responsabilização das empresas pela violação dos direitos de crianças e adolescentes em ambiente digital está pautada na legislação vigente relacionada às obrigações empresariais e à garantia dos direitos desses indivíduos. §2º As empresas provedoras devem envidar esforços para atender às necessidades de crianças e adolescentes desde a concepção, o desenvolvimento e ações de comunicação de seus ambientes e sistemas, de acordo com os direitos e o interesse superior desse público. §3º As empresas provedoras devem criar e aprimorar mecanismos que previnam o uso de serviços e ambientes digitais por crianças e adolescentes sempre que seus serviços não sejam adequados e, seguros a esse público. §4º A previsão do caput não pode ser utilizada para criar obstáculos ao direito de acesso à informação e de participação de crianças e adolescentes no ambiente digital. §5º Os códigos de conduta das empresas de tecnologia devem incluir orientações de como reportar riscos e sugerir melhorias para a proteção dos direitos das crianças e adolescentes. Art. 18 As empresas devem assegurar a absoluta prioridade à proteção e efetivação dos direitos de crianças e adolescentes acima de qualquer consideração técnica ou econômica, prevenindo, mitigando, coibindo e adotando medidas de responsabilização diante qualquer forma de abuso, violência, discriminação, capacitismo e difusão de discurso de ódio e desinformação. Parágrafo único. Para a efetiva promoção e proteção dos direitos das crianças e adolescentes, as empresas deverão priorizar ações rápidas, em prazo hábil e suficiente, com vistas a prevenir riscos e práticas ilícitas, inclusive as geradas por terceiros, no âmbito de seus serviços. Art. 19 Mecanismos efetivos de verificação etária nos serviços e ambientes digitais acessíveis a crianças e adolescentes devem ser disponibilizados para impedir que crianças e adolescentes tenham acesso a plataformas, produtos, serviços e conteúdos ilícitos ou incompatíveis com sua idade. Parágrafo único. Os dados de crianças e adolescentes obtidos pelos mecanismos e sistemas de verificação etária não poderão ser utilizados para quaisquer outros fins, a não ser a verificação etária. Art. 20 As empresas provedoras de ambientes e serviços digitais devem disponibilizar mecanismos de mediação parental e recomendar ativamente a participação de responsáveis legais, como forma de promoção do uso seguro e saudável de seus serviços no ambiente digital. Art. 21 As empresas provedoras devem disponibilizar e divulgar amplamente canais de fácil acesso e em linguagem simples, acessível e de fácil compreensão para crianças, para escuta, diálogo e recebimento de denúncias de conteúdos nocivos ou ilegais, sem prejuízo dos direitos de revisão das decisões e acesso à informação sobre os procedimentos de moderação. §1º Os canais de escuta, diálogo e denúncia devem disponibilizar, no mínimo, informação em prazo hábil e suficiente sobre o andamento e resultado das denúncias realizadas. §2º Para fins de transparência, as empresas devem publicizar, regularmente, informações sobre: I - Quantidade de denúncias recebidas e categorias de ofensas e violações; II - Métodos de moderação e governança aplicados no processo de análise de denúncias e na eventual aplicação de sanções. §3º Os mecanismos de mediação parental, denúncia de violações e outras formas de justiça, proteção e segurança no ambiente digital devem ser continuamente aprimorados com base em evidências e disponibilizados de forma ampla, acessível, gratuita e proativa para crianças e adolescentes, famílias, comunidade escolar, poder público e demais responsáveis. Art. 22 As empresas provedoras são responsáveis por identificar, medir, avaliar e mitigar preventiva e diligentemente os riscos reais ou previsíveis aos direitos e interesse superior de crianças e adolescentes relacionados às funcionalidades, à concepção, gestão e funcionamento de seus serviços e sistemas, inclusive os algorítmicos, de redes sociais, jogos, aplicativos e demais ambientes digitais, especialmente aqueles relacionados à: I - saúde mental, como a adicção, o tempo excessivo de tela e possíveis prejuízos à autoestima e ao bem-estar físico e emocional de crianças e adolescentes; II - violação do direito à convivência familiar e comunitária; III - difusão de conteúdos nocivos, danosos e ilegais nos serviços e ambientes digitais; IV - discriminação direta ou indireta em decorrência de sistemas algorítmicos ou do uso de dados pessoais sensíveis, em razão de características pessoais, especialmente raça, cor, etnia, identidade de gênero, orientação sexual, deficiência, idade, origem, convicções filosóficas, políticas ou religiosas ou por qualquer particularidade ou condição; V - inobservância dos direitos fundamentais previstos na Constituição da República, na legislação nacional e nos tratados internacionais dos quais o Brasil é signatário; VI - exposição da imagem de crianças e adolescentes de forma excessiva ou em contexto vexatório; VII - propagação de conteúdos que incorram em abuso e exploração sexual de crianças e adolescentes; VIII - propagação de conteúdos que induzam, instiguem ou auxiliem a automutilação ou suicídio, em observância ao art. 122 do Decreto-Lei nº 2.848, de 7 de dezembro de 1940; e IX - discurso de ódio, incitação à prática de crimes contra crianças e adolescentes ou apologia a fato criminoso ou a autor de crimes contra crianças e adolescentes. Parágrafo único. A gradação e avaliação de riscos deve considerar os sistemas de moderação de conteúdo, os termos e políticas de uso, os sistemas e mecanismos de publicidade e propaganda, e os possíveis usos nocivos e maliciosos nos ambientes e serviços digitais. Art. 23 As empresas de tecnologia devem desenvolver mecanismos de proteção e prevenção de violações específicas para o nível dos intermediários que agregam grandes bases de seguidores de crianças e adolescentes, como influenciadores, streamers, gamers, administradores de grupos e canais, moderadores de lives e afins. Parágrafo único. As empresas devem tomar medidas de prevenção à radicalização de crianças e adolescentes nos ambientes digitais por elas regulados, bem como ao seu recrutamento para o crime, o extremismo e o comportamento e discurso violentos contra outros ou contra si mesmos, promovendo uma cultura de paz, convivência democrática e respeito à diferença. Art. 24 As empresas devem priorizar, nos seus sistemas, ferramentas, equipes e recursos de moderação, o controle de conteúdo ilegal ou impróprio envolvendo ou direcionado para crianças e adolescentes. §1º As empresas devem prever, em seus termos de uso, proibição de postagem de conteúdo ilegal ou impróprio envolvendo ou direcionado para crianças e adolescentes, bem como sanções proporcionais aos usuários infratores. §2º As empresas devem disponibilizar, para os usuários, mecanismos de notificação eletrônica de conteúdo ilegal ou impróprio envolvendo ou direcionado para crianças e adolescentes. §3º As empresas devem tornar indisponíveis conteúdo ilegal ou nocivo envolvendo ou direcionado para crianças e adolescentes tão logo constatado o seu teor, independentemente de ordem judicial. Art. 25 Os usuários terão direito ao devido processo de moderação, com a notificação e direito de esclarecimento e de revisão em tempo hábil, sem prejuízo da indisponibilização ou remoção rápida dos conteúdos considerados ilegais, impróprios ou nocivos para crianças e adolescentes. Art. 26 Resguardado o respeito à proteção de dados pessoais e demais normas pertinentes em vigor, as empresas provedoras de produtos e serviços digitais devem atuar para facilitar o compartilhamento de dados e evidências com a comunidade de pesquisa acadêmica e da sociedade civil dedicada à compreensão dos riscos e impactos do ambiente digital sobre crianças e adolescentes. Parágrafo único. As empresas devem disponibilizar, em português, em linguagem simples, acessível e de fácil compreensão para crianças e adolescentes relatórios, dados e evidências atualizados sobre a efetividade das medidas tomadas para a garantia de direitos de crianças e adolescentes nos ambientes digitais por elas regulados. Art. 27 As empresas devem garantir em suas plataformas, serviços e sistemas a acessibilidade a todas as crianças e adolescentes, assegurando o desenho universal nos termos da Lei nº 13.146, de 6 de julho de 2015 (Estatuto da Pessoa com Deficiência). Art. 28 Para fins de conformidade com o ordenamento jurídico nacional, as empresas deverão publicar, ao menos anualmente, relatórios de: I - Transparência, quanto ao funcionamento de seus serviços e sistemas, inclusive os algorítmicos, bem como do uso dos dados colhidos durante o funcionamento de seus serviços e, no mínimo: a. medidas de governança adotadas na concepção, desenvolvimento e emprego de seus sistemas; b. detalhamento dos métodos empregados para prevenção e mitigação de riscos; c. detalhamento das sanções aplicáveis a infratores; e d. exposição de esforços envidados para educação e promoção de direitos e uso consciente, saudável e responsável dos ambientes e serviços digitais. II - Avaliação de riscos aos direitos e o interesse superior de crianças e adolescentes, de maneira atualizada, considerando as especificidades do contexto brasileiro e priorizando a avaliação anterior à introdução de novos serviços e funcionalidades; e III - Auditoria independente, que avalie a conformidade com o ordenamento jurídico e o cumprimento das responsabilidades e do Dever de Cuidado estabelecidos pela normatização legal e infralegal vigentes no território nacional. CAPÍTULO VI Das ações de mobilização e conscientização sobre o impacto do ambiente digital para crianças e adolescentes Art. 29 O Poder Público e as empresas provedoras de produtos e serviços digitais devem promover ações de sensibilização sobre os direitos e riscos a crianças e adolescentes no ambiente digital, focando, particularmente, nos setores cujas práticas tenham impacto direto ou indireto nas crianças e adolescentes. §1º Deve ser estimulado o desenvolvimento de ações educacionais para crianças e adolescentes, familiares, responsáveis e cuidadores, autoridades públicas e sociedade em geral, para ampliar o conhecimento sobre os direitos de crianças e adolescentes, especificamente quanto aos benefícios e riscos associados com produtos e serviços digitais, bem como ampliar a autonomia e o senso crítico, individual e coletivos, sobre decisões relacionadas ao desenvolvimento e gestão do ambiente digital. §2º As ações mencionadas no §1º devem incluir informações sobre como as crianças e adolescentes podem se beneficiar de produtos e serviços digitais para desenvolver seu conhecimento, profissionalização e habilidades digitais; como proteger a privacidade; como prevenir a vitimização e a radicalização; como reconhecer que uma criança ou adolescente é ou foi vítima de violência no ambiente digital; e como prestar atendimento adequado às vítimas. §3º Profissionais que trabalham direta ou indiretamente para ou com crianças, incluindo na indústria de tecnologia, devem receber treinamento sobre o impacto do ambiente digital nos direitos da criança e do adolescente, o exercício e a proteção dos direitos desse público, e a identificação de riscos de violação e vitimização de crianças e adolescentes no ambiente digital. Disposições finais: Art. 30 O tratamento de denúncias de violação dos direitos de crianças e adolescentes no ambiente digital recebidas pelas empresas provedoras deve compor fluxo de encaminhamento à Ouvidoria Nacional dos Direitos Humanos (Disque 100), aos órgãos do Sistema de Garantia de Direitos, em especial aos Conselhos Tutelares, ao Ministério Público, Defensoria Pública, órgãos de defesa do consumidor, e às autoridades policiais, preferencialmente delegacias especializadas em crimes virtuais e na proteção dos direitos de crianças e adolescentes. Parágrafo único. O retardamento ou omissão, culposos ou dolosos, no encaminhamento das denúncias à Ouvidoria Nacional dos Direitos Humanos poderá culminar nas sanções previstas no Art. 70-B, parágrafo único, da Lei nº 8.069, de 13 de julho de 1990. Art. 31 Esta Resolução entra em vigor na data de sua publicação. MARINA DE POL PONIWAS Presidente do ConselhoFechar