Líderes partidários da Câmara decidiram em reunião nesta terça-feira (9) mudar o relator do projeto da Regulação das Redes Sociais e criar um grupo de trabalho para debater o assunto.

O primeiro relator do texto foi o deputado Orlando Silva (PCdoB-SP). A avaliação dos líderes é que Silva não conseguiu fazer o debate avançar e deixou seu texto se contaminar por polêmicas. Ainda não está definido quem será no novo relator.

Também não foi estabelecido um prazo para o grupo de trabalho concluir os debates sobre o novo texto.

Com a mudança de relator e a criação do grupo de trabalho, as discussões em torno do projeto devem recomeçar praticamente da estaca inicial.

O presidente da Câmara, Arthur Lira (PP-AL), afirmou após a reunião de líderes que o texto anterior foi “polemizado” e perdeu as condições de ser votado na Casa. “Simplesmente não tem acordo. Não é questão de governo e oposição. É posição individual de cada parlamentar.”

“Por mais esforço e consideração que tenhamos pelo relator Orlando, não tivemos tranquilidade e apoio parlamentar para votação no plenário da Câmara”, disse Lira. “O texto foi polemizado”, completou.

Segundo o presidente da Câmara, o grupo de trabalho funcionará por entre 30 e 45 dias. Na sequência, o projeto seguirá para o plenário da Casa.

A intenção de líderes partidários é que o texto pode se expandir para além dos temas da fake news e legislar também sobre inteligência artificial.

A discussão sobre o projeto de lei (PL) da Regulação das Redes Sociais voltou com força ao Congresso após os ataques do dono do X (antigo Twitter) ao Judiciário brasileiro.

Musk chamou o ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), de ditador e ameaçou descumprir ordens da Justiça e reativar contas bloqueadas no X por terem divulgado informações falsas e ataques às instituições democráticas. Os bloqueios ocorreram no curso de inquéritos dos quais Moraes é o relator.

O atual texto sobre a regulação das redes, que está na Câmara, foi aprovado pelo Senado ainda em 2020. Em 2023, estava prestes a ser votado pelos deputados, mais foi deixado de lado por falta de consenso e pressão das big techs (as grandes empresas das plataformas sociais).

O grupo de trabalho deve debater também a regulação da Inteligência Artificial. Esse ponto, atualmente, não está no PL da Regulação das Redes.

Questionado por jornalistas sobre os ataques e ameaças de Musk, Lira disse: “Não tenho nada a comentar sobre isso”.

O que prevê o projeto hoje

Com a troca do relator e a retomada dos debates, o PL deve sofrer importantes alterações. Hoje, o texto prevê os seguintes pontos principais:

  • Responsabilização das redes

A última versão do parecer protocolado por Orlando Silva na Câmara estabelece que as plataformas poderão ser responsabilizadas civilmente por conteúdos criminosos publicados por usuários, desde que seja comprovado que a empresa ignorou riscos e abriu mão de mecanismos de moderação.

A responsabilização também ocorrerá quando os conteúdos criminosos forem veiculados por meio de instrumentos pagos de impulsionamento e publicidade.

As medidas alteram o Marco Civil da Internet, que prevê que os provedores somente poderão ser responsabilizados quando, após ordem judicial, não removerem conteúdos criminosos.

  • Dever de cuidado

 

Pelo texto, as empresas devem adotar um protocolo para analisar riscos relacionados às plataformas e seus algoritmos. Essa avaliação deverá abordar, por exemplo, a disseminação de conteúdos contra o Estado Democrático de Direito e publicações de cunho preconceituoso.

A partir dessa análise, as empresas terão de adotar medidas para atenuar os riscos.

O projeto também cria o chamado “dever de cuidado”, que, se ignorado, pode levar à responsabilização da plataforma. O mecanismo determina que os provedores precisam atuar de forma “diligente” para prevenir ou mitigar conteúdos ilícitos veiculados nas plataformas.

A negligência da empresa ou a identificação de riscos pode levar à abertura de um protocolo de segurança. Com o início do procedimento, as plataformas poderão ser responsabilizadas por omissões em denúncias de usuários contra conteúdos criminosos disponíveis nas redes sociais.

A moderação de conteúdo também está prevista no projeto. Segundo o texto, o procedimento deve seguir os “princípios da necessidade, proporcionalidade e não discriminação”. Estabelece, ainda, que as decisões a respeito de publicações devem ser comunicadas aos usuários, com os fundamentos da medida e os mecanismos de recurso.

  • Decisões judiciais

A proposta estabelece que as plataformas digitais devem cumprir, em até 24 horas, as decisões judiciais de derrubada de conteúdo criminoso.

O descumprimento pode ser punido com multa de até R$ 1 milhão por hora, que pode ser triplicada se o conteúdo tiver sido impulsionado por recursos pagos.

As publicações removidas e os dados de acesso do usuário responsável pelo conteúdo deverão ser armazenados por seis meses.

Segundo o texto, a plataforma deve comunicar às autoridades indícios de ameaças à vida de uma pessoa.

  • Punições

Além de responsabilizações no Judiciário, as empresas que descumprirem as medidas previstas no texto poderão, por exemplo, ser punidas com:

  • advertência
  • multa diária de até R$ 50 milhões
  • multa de até 10% do faturamento da empresa no Brasil
  • multa por usuário
  • multa de até R$ 50 milhões por infração
  • e suspensão temporária das atividades no Brasil

A proposta também prevê que todas as empresas que tiverem operações no Brasil deverão ter representantes jurídicos no país.

G1/RN

 

Seja o primeiro a comentar


Poste seu comentário

Seu endereço de e-mail não será publicado. Os campos obrigatórios estão marcados com *