Regulação de Plataformas Digitais: a proposta do Governo Federal

Regulação de Plataformas Digitais: a proposta do Governo Federal

Na última semana, foi divulgada a minuta de novo Substitutivo ao Projeto de Lei nº 2.630/2020 (PL das Fake News) apresentada pelo Poder Executivo Federal. A minuta, que se propõe a estabelecer uma regulação das atividades das plataformas digitais no Brasil, é fruto do diálogo e intervenção principalmente do Ministério da Justiça, do Ministério das Comunicações, em especial a Secretaria de Políticas Digitais da SECOM, além de representantes do Planalto. O documento, então, apresenta-se como uma alternativa ao substitutivo do projeto original de autoria do Senador Alessandro Vieira e de relatoria do Deputado Federal Orlando Silva, que vem sendo analisado no Congresso Nacional.

Em que pese a divulgação do documento, ainda não foi formalizada a propositura do texto junto à ficha de tramitação oficial do PL nº 2.630/2020 no Portal da Câmara dos Deputados.

Vale destacar que, em sua grande parte, os dispositivos na forma apresentados precisam de regulamentação específica, pois não são autoexecutáveis.

Isso posto, passaremos a elencar os principais pontos de atenção do Substitutivo ao PL, destacando-se as partes em negrito, grifadas pelo Souto Correa, para regulação de plataformas digitais.


Escopo de Aplicação da Norma

Para além das plataformas de redes sociais, ferramentas de buscas e serviços de mensageria instantânea já previstas no Substitutivo proposto pelo Deputado Orlando Silva, também passam a se sujeitar expressamente à norma os indexadores de conteúdos de terceiros, assim como as plataformas de vídeos de terceiros (Art. 1º, §1º).

Por outro lado, provedores de enciclopédias online sem fins lucrativos; repositórios científicos e educativos, plataformas de desenvolvimento e compartilhamento de software de código aberto; plataformas fechadas de reuniões virtuais por vídeo ou voz ficam fora no alcance da Lei (Art. 1º, 4º).

A grande novidade parece ser a inclusão das plataformas cuja atividade primordial seja de comércio eletrônico de produtos no rol de plataformas não sujeitas à Lei (Art. 1º, 4º).


Moderação de Conteúdo

As plataformas digitais de conteúdos de terceiros se obrigam a dar publicidade à ação de moderação sobre conteúdo ou conta, conforme Termos e Políticas de Uso ou legislação aplicável que resulte, por exemplo, em exclusão, redução do alcance ou alteração do pagamento monetário. (Art. 10, I).

Além disso, as plataformas deverão manter a publicidade da ação judicial que originou a moderação e, de preferência, quando possível, essas informações deverão constar no conteúdo ou conta que está sendo afetada. (Art. 10, I e parágrafo único).


Publicidade

A proposta também inova ao vedar expressamente a publicidade e impulsionamento de conteúdos que, por exemplo, violem os direitos fundamentais; que incitem o ódio, promovam a discriminação e intolerância; que neguem fatos históricos violentos bem documentados; que incitem a sublevação da ordem democrática; que apresentem indícios de crimes contra o Estado Democrático de Direito ou mesmo indícios de atos terroristas (Art. 6º, §1º).

Segundo a proposta, as vedações se aplicam a qualquer tipo de publicidade, incluindo vídeo ou transmissão ao vivo, miniatura, título, descrição e etiquetas do conteúdo (Art. 6º, 2º).


Responsabilidade Civil

A proposta do Poder Executivo especifica que as plataformas digitais de grande porte, quais sejam aquelas que apresentem mais de 10 milhões de usuários no país (Art. 2º, XIII), serão responsabilizadas civilmente por danos causados por conteúdos ilegais gerados por terceiros, “quando demonstrado conhecimento prévio e comprovado o descumprimento do dever de cuidado”. (Art. 13, caput).

Os conteúdos ilegais são indicados como práticas ou incitação à prática de crimes, como: contra o Estado Democrático de Direito; terrorismo; contra crianças e adolescentes; resultantes de preconceito de raça ou de cor; contra a saúde pública; indução, instigação ou auxílio a suicídio ou a automutilação e violência de gênero (Art. 12, I ao VII).

Como forma de não incorrer em eventual responsabilização por conteúdo gerado por terceiros, as plataformas digitais podem, de forma diligente, voluntária e de boa-fé promover investigações, para adoção de medidas que impeçam o acesso a conteúdos ilícitos (Art. 13, parágrafo único).


Dever de Cuidado

Como observado, o cumprimento do dever de cuidado é condição para que as plataformas digitais se afastem de eventuais responsabilizações por conteúdos gerados por terceiros. Por essa razão, a proposta dispõe que as plataformas deverão atuar de forma diligente, mitigando práticas ilícitas e aprimorando o combate aos conteúdos ilegais. (Art. 12, caput).

Este dever de cuidado será, então, monitorado e avaliado pela entidade autônoma de supervisão, levando em consideração a atuação diligente da plataforma; os relatórios periódicos; adaptação de sistemas e processos para cumprir a Lei. (Art. 12, parágrafo primeiro).


Remoção de Conteúdo de Terceiros

As plataformas digitais de grande porte deverão cumprir as decisões judiciais de remoção imediata de conteúdo ilícito dentro do prazo de 24 horas sob pena de multa de até R$ 1 milhão por hora de descumprimento, podendo ser triplicada no caso de impulsionamento ou monetização, por exemplo (Art. 34, caput e §1º).

Quando identificada qualquer informação que levante suspeitas sobre crimes que ameacem à vida ou à segurança das pessoas, as plataformas deverão comunicar imediatamente às autoridades competentes, fornecendo todas as informações necessárias (Art. 35).

Ainda, as plataformas digitais são obrigadas a guardar, pelo prazo de 1 ano a partir da remoção de conteúdo ou desativação de contas, dados e informações que possam constituir material probatório para processos administrativos e/ou judiciais (Art. 36, caput).


Imunidade Parlamentar Digital / Tratamento dos Cidadãos Eleitos

Assim como prevista no Substitutivo do Deputado Federal Orlando Silva, a imunidade parlamentar material está disposta na proposta do Executivo, sendo vedados o bloqueio ou exclusão das contas dos cidadãos eleitos para cargos do Executivo e Legislativo, além de ministros do Estado, por exemplo (Art. 18, caput).

Contudo, ressalva-se a possibilidade de suspensão por 7 dias para aquelas contas de políticos que frequentemente violam os termos e políticas de uso ou disseminam discursos de ódio, conteúdos ilícitos (Art. 18, caput).


Dever de Transparência

Também como mote da proposta do Governo Federal, busca-se a maior transparência por parte das plataformas digitais, com a elaboração de relatórios semestrais, detalhando o cumprimento de obrigações legais; descrevendo as providências adotadas; informando sobre sistemas de recomendação de conteúdo jornalístico e descrevendo os sistemas algorítmicos utilizados (Art. 20).

Além disso, os relatórios devem agregar dados de aplicação de termos e políticas de uso e legislação, como: número total de usuários; número total de denúncias e notificações e número total de solicitações e decisões relativas à moderação em contas e conteúdos gerados por terceiros adotadas por iniciativa própria (Art. 21).

Por fim, também devem ser disponibilizadas aos usuários as publicidades da plataforma e conteúdos impulsionados que foram exibidos aos usuários dentro do período de 6 meses (Art. 22).


Autorregulação Regulada

Em alinhamento à proposta do Deputado Federal Orlando Silva, a sugestão do Governo Federal prevê a manutenção do modelo de autorregulação regulada, qual seja, uma espécie de concerto regulatório entre as plataformas digitais submetidas à aplicação da Lei, pelo qual as empresas irão instituir entidade de autorregulação, estabelecendo suas próprias normas, ao mesmo tempo em que estarão sob a égide das leis brasileiras (Art. 37, caput).

Segundo o documento, à entidade de autorregulação caberá (i) a revisão de decisões de moderação de conteúdo; (ii) a garantia da independência e especialidade de seus analistas; (iii) a disponibilização de serviço de atendimento de reclamações; (iv) a criação de ouvidoria independente para solucionar críticas e avaliar as atividades da instituição, dentre outros (Art. 37, I, III, IV, VI).

entidade de autorregulação, financiada pelas empresas filiadas, aprovará resoluções e súmulas para regular seus procedimentos de análise e deverá solucionar as solicitações de usuários no prazo máximo de 5 dias úteis, além de apresentar relatórios semestrais, conforme especificado em lei (Art. 37, §§ 3º, 4º, 5º e 6º).


Sanções

Sem prejuízo de demais sanções administrativas previstas em legislação específica, a proposta do Governo indica que poderão ser aplicadas as seguintes sanções, às plataformas que cometerem infrações a esta Lei, de forma isolada ou cumulativa, pela entidade autônoma de supervisão: (Art. 38, I a VII).

  • I – advertência, com indicação de prazo para adoção de medidas corretivas;
  • II – multa diária, observado o limite total a que se refere o inciso III;
  • III – multa simples, de até 10% (dez por cento) do faturamento do grupo econômico no Brasil no seu último exercício ou, ausente o faturamento, multa de R$ 10,00 (dez reais) até R$ 1.000 (mil reais) por usuário cadastrado do provedor sancionado, limitada, no total, a R$ 50.000.000,00 (cinquenta milhões de reais), por infração;
  • IV – publicação da decisão pelo infrator;
  • V – proibição de tratamento de determinadas bases de dados;
  • VI – suspensão temporária das atividades; ou
  • VII – proibição de exercícios das atividades.

Destaca-se que, para decisões de moderação de conteúdos individuais das plataformas, não caberão sanções administrativas (Art. 38, §1º).

Por outro lado, a proposta deixa a cargo da discricionariedade da entidade autônoma de supervisão a indicação do prazo para adoção de medidas corretivas nos casos de aplicação de sanção de advertência (Art. 38, I).


Entidade Autônoma de Supervisão

A proposta traz a criação de uma entidade autônoma de supervisão que irá regulamentar o procedimento de apuração, fiscalização e critérios de aplicação de sanções administrativas a infrações à lei. Essas sanções serão aplicadas ao descumprimento sistemático das plataformas, excetuando a moderação de conteúdos individuais (Arts. 39 e 42).


Remuneração de Conteúdo/Direito Autoral

Os conteúdos protegidos por direitos de autor e direitos conexos ensejarão a remuneração a seus titulares pelas plataformas digitais e provedores. A proposta inclui os conteúdos sob demanda e produzidos em texto, vídeo, áudio ou imagem, incluindo conteúdos musicais, audiovisuais e jornalísticos. (Art. 54, caput).

A negociação com os provedores sobre os valores, modelo e prazo de remuneração a serem aplicados será conduzida por associações de gestão coletiva de direitos autorais (Art. 54, §3º).


Código de Conduta de Enfrentamento à Desinformação

Caberá ao Congresso Nacional criar comissão, dentro do prazo de 45 dias da sanção da Lei, para a elaboração de Código de Conduta de Enfrentamento à Desinformação, que abordará: (i) medidas para impedir disseminação de desinformação; (ii) medidas para garantir desmonetização de conteúdo de desinformação; (iii) regras para impedir conteúdo publicitário com desinformação, dentre outros (Art. 50, I a III).

A comissão será composta por representantes de cada plataforma digital de grande porte; da Câmara dos Deputados; do Senado Federal; da comunidade acadêmica; da sociedade civil e entidades jornalísticas e agências de checagem (Art. 51).

Caberá à entidade autônoma de supervisão supervisionar a aplicação do Código de Conduta de Enfrentamento à Desinformação (Art. 52).


Educação Midiática

O projeto prevê a capacitação de crianças e adolescentes para o desenvolvimento de análises críticas e reflexões quanto ao uso consciente das aplicações de internet (Art. 48, caput).

A União, Estados e Municípios deverão envidar esforços para “desenvolver nos alunos conjunto de habilidades para acessar, analisar, criar e participar de maneira crítica do ambiente informacional e midiático em todos os seus formatos, com a finalidade de desenvolver seus potenciais de comunicação nos diversos meios, a partir das habilidades de interpretação consciente das informações, produção ativa de conteúdos e participação responsável na sociedade” (Art. 48, §1º).


Taxação

As plataformas de grande porte estarão sujeitas à cobrança de taxas de supervisão anual proporcional ao número médio mensal de usuários ativos e de receita de cada uma, sendo esses valores revertidos para o orçamento da entidade autônoma de supervisão (Art.40).

A íntegra do texto da sugestão do Governo Federal ao Substitutivo do PL nº 2.630/2020 pode ser consultada aqui.

___________________

Contato
Gabriella Salvio – gabriella.salvio@soutocorrea.com.br

Sou assinante
Sou assinante