Anúncio

Cuiaba - MT / 4 de julho de 2025 - 0:57

Leis criticadas na Europa são inspirações de Gilmar Mendes para regulação das redes

Na justificativa do seu voto para as mudanças no artigo 19 do Marco Civil da Internet, que passa a responsabilizar também as plataformas pelas publicações dos usuários, o ministro do Supremo Tribunal Federal (STF) Gilmar Mendes disse que o Brasil deveria seguir os modelos de autorregulação praticados na Alemanha (NetzDG) e na União Europeia (DAS).

Quando a Neztdurchsetzungsgesetz (NetzDG ou Lei de Fiscalização da Rede) começou a operar, em 2018, a organização internacional de direitos humanos Human Rights Watch previu: “a lei estabelece um precedente perigoso para outros governos que buscam restringir a liberdade de expressão online, forçando as empresas a censurar em nome do governo”.

“Forçar empresas a atuarem como censores do governo é problemático em um Estado democrático e nefasto em países com um Estado de Direito frágil”, disse o diretor da Human Rights, Wenzel Michalski, na época.

A NetzDG foi criada para “combater o discurso de ódio” no país, em suposta resposta à crescente presença de grupos xenófobos e neonazistas nas redes sociais. As plataformas com mais de dois milhões de usuários que não removerem conteúdo “claramente ilegal” em até 24 horas ou material não explícito em até sete dias (tempo de análise), após o recebimento de uma denúncia, podem ser multadas, em valores que chegam a 50 milhões de euros.

VEJA TAMBÉM:

Primeira vez que o controle em rede sociais é implementado pelo Judiciário

A lei alemã é amplamente criticada não só por coibir a liberdade de expressão, mas também porque as regras e limites não são claros. O sistema de controle é parecido com o que foi aprovado pelo STF no dia 26 de junho. Plataformas passam a ser responsabilizadas civilmente por danos causados por conteúdo publicado por terceiros, o que deve aumentar o controle das postagens. Antes, isso só aconteciam se não cumprissem ordem judicial.

Os ministros Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flavio Dino, Cristiano Zanin, Gilmar Mendes, Alexandre de Moraes e Cármen Lúcia votaram pelo endurecimento das regras às plataformas digitais no país.

Os ministros André Mendonça, Edson Fachin e Kassio Nunes Marques defenderam que o tema deveria ser regulamentado pelo Congresso e não pelo Judiciário, mas formaram minoria. É a primeira vez que o controle de publicações em rede sociais é implementado pelo Judiciário em um país. Outros países já aderiram regulações, mas sempre aprovadas pelo Legislativo.

O relator especial das Nações Unidas para proteção do direito à liberdade de opinião e expressão, David Kaye, escreveu uma carta aberta ao governo alemão quando o NetzDG foi proposto com suas considerações:

“Qualquer legislação que restrinja o direito à liberdade de expressão e o direito à privacidade deve ser aplicada por um órgão independente de quaisquer influências políticas, comerciais ou injustificadas, de forma que não seja arbitrária nem discriminatória.”

“Censura terceirizada”

Para os advogados e juristas André Marsiglia e Hugo Freitas, a mudança no artigo 19 feita pelo STF é uma “censura terceirizada”, pois, ao jogar a responsabilidade para as empresas, elas serão mais rigorosas com os conteúdos para evitar problemas.

“Estão querendo que as plataformas façam censura, de acordo com o que o Estado e poder público quiserem. Estão querendo responsabilizar as empresas pelo conteúdo, e elas vão remover o que acham que vão ser punidas. É uma forma indireta do Estado de censurar conteúdo”, diz Freitas.

O Digital Services Act (DSA ou Lei de Serviços Digitais) da União Europeia surgiu na esteira da NetzDG, em 2022, na mesma premissa de regular as práticas de moderação de conteúdos das plataformas de redes sociais, e substituir a lei na Alemanha em breve. A presidente da comissão da UE, Ursula von der Leyen, propôs estender o DSA para todos os países do bloco.

O DSA foi amplamente usado como referência no projeto de Lei 2630/2020 – conhecido como PL das Fake News. Apesar da urgência do tema, foi aprovado no Senado e está em análise na Câmara dos Deputados desde 2020. Existe outro projeto, o PL 2628/2022, voltado para proteção de crianças e adolescentes em ambientes digitais – também à espera dos deputados.

Maioria do conteúdo removido é legal

Um estudo realizado em 2024 pela organização The Future of Free Speech (O futuro da liberdade de expressão, em português) mostrou que, ao forçar as empresas de mídia social a remover rapidamente conteúdo “ilegal” ou “discriminatório” com definições ambíguas, a DSA pode levar à censura excessiva, especialmente em áreas controversas como discurso de ódio e desinformação.

O levantamento foi feito em parceria com outras entidades, como Columbia University’s Global Freedom of Expression and Aarhus University’s Department of Political Science e Google.

O estudo examinou comentários excluídos de 60 das maiores páginas do Facebook e canais do YouTube na França, Alemanha e Suécia. Dependendo da plataforma e do país, entre 87,5% e 99,7% do conteúdo removido era legal, segundo o levantamento.

O relatório identificou ainda que mais de 56% dos comentários removidos eram expressões gerais de opinião que não continham ataques linguísticos, discurso de ódio ou conteúdo ilegal.

Para Jacob Mchangama, diretor executivo do The Future of Free Speech, a moderação excessiva está tendo efeito inibidor na diversidade e debates, essenciais para a democracia.

“Em vez disso, precisamos criar um ambiente digital onde uma variedade de perspectivas possa existir, ao mesmo tempo em que implementamos medidas para moderar conteúdo verdadeiramente prejudicial sem limitar discussões políticas jurídicas, mesmo que incluam ideias controversas ou ofensivas”, diz ele.

Bianca Cobucci Rosière, defensora pública do Distrito Federal e autora do livro 8 de Janeiro e o Direito Penal do Inimigo, corrobora Mchangama. É preciso regulação, mas, salienta: “via Congresso, com debates com especialistas e com a sociedade, com estudos, como demanda um processo democrático, e não dessa forma com nove pessoas decidindo”.

Na sua leitura, o principal problema está além do controle das redes sociais, mas no fato de o STF legislar. “O poder judiciário, através do STF, está legislando. Mas já existem leis. Se precisa ter mudanças, tem que passar por Congresso. A grande crítica é a violação da separação dos três poderes. Os parlamentares são os representares do poder. Quando ministros que não foram votados estão decidindo isso parece democracia?”, questiona.

“Quando as democracias renunciam ao seu compromisso com a liberdade de expressão ao terceirizar a regulamentação, os regimes autoritários aproveitam a oportunidade, criando uma ‘corrida regulatória para o fundo do poço’. Isso tem consequências severas e negativas para a liberdade de expressão, mídia independente, a vitalidade da sociedade civil e o pluralismo político”, acrescenta Mchangama.

VEJA TAMBÉM:

Por que lá e não aqui?

Para o jurista e comentarista da Gazeta do Povo André Marsiglia, o NetzDg não é parâmetro para o Brasil. Primeiro, porque a Alemanha tem um contexto muito específico que foi a Segunda Guerra e eles reagem ainda hoje a isso. Mas, sobretudo, porque aqui os juízes são ativistas de uma forma que lá fora não são.

“Se tivermos aqui uma regra que possibilite um ativismo ainda maior dos juízes, do Estado – uma interferência ainda maior dos poderes na liberdade de expressão –, algo que não acontece lá fora, teremos aqui censura e lá fora não necessariamente. O problema aqui não é a regra apenas, é como ela é aplicada. Aqui, é de forma autoritária, então os modelos são incomparáveis porque a cultura jurídica é diferente”, diz Marsiglia.

Ele lembra, ainda, outra diferença relevante: a NetzDG foi aprovada pelo congresso alemão e a DSA, pelo parlamento europeu.

Rigidez com plataformas ou controle de conteúdo?

Qual é a responsabilidade que a União Europeia colocou para as redes sociais de grande dimensão?

A pergunta foi apresentada pelo ministro Alexandre de Moraes no seu voto à Corte, que seguiu com a sua resposta:

“Identificarem preventivamente, identificarem e avaliarem os riscos sistêmicos à democracia decorrentes da utilização de seus serviços, de algoritmos e inteligência artificial, apontando esses riscos às autoridades competentes e tomando providências de autorregulação nas hipóteses de verificação de efeitos negativos reais ou previsíveis aos princípios democráticos e ao processo eleitoral.”

Segundo os especialistas, o que está em jogo não é impor regras às plataformas – que precisam, de fato, de regulamentação – mas o controle do conteúdo. Marsiglia e Mota questionam a subjetividade com que o STF trata a liberdade de expressão e o ativismo do Judiciário, inclusive político.

Em seu voto, Gilmar Mendes deu dois exemplos do que não considera expressão de liberdade: “O ex-deputado Daniel Silveira incitou a população a fazer um cerco e invadir os edifícios dos Supremo Tribunal Federal e do Congresso Nacional, para retirar os ocupantes na base da porrada” e o “desafio do desodorante” com adolescentes.

Gilmar Mendes alega que as empresas hoje já fazem essa curadoria do que pode ou não ser publicado e removido, mas que esta seleção não está clara. A justificativa é semelhante à que foi usada na Alemanha e na União Europeia: segurança.

Hugo Freitas, contudo, avalia que a partir do momento em que o Judiciário dita regras, está, na prática, colocando limite sobre o que as pessoas podem falar na internet.

“O STF está querendo impor às plataformas a responsabilidade de ter controle prévio e acho preocupante porque fica explícito que querem cercear o discurso. Aparentemente, é para as plataformas, mas vai impactar o cidadão porque ao censurarem as empresas, as pessoas não poderão expressar as ideias com a mesma liberdade.”

Reportagem da Gazeta do Povo mostrou que 83% dos inquéritos e processos que atualmente tramitam no STF contra parlamentares da Casa miram a direita, principalmente através das redes sociais. Entre os processos e investigações no Supremo, mais de 75% estão relacionados a publicações na internet e 40 deles miram deputados de direita.

Liberdade de expressão regulada?

Os crimes gravíssimos específicos que “a plataforma deve zelar para que tais conteúdos não sejam sequer publicados” são: terrorismo, tráfico de pessoas, indução ao suicídio ou à automutilação, discriminação e discurso de ódio, crimes contra mulheres em razão de gênero e atos antidemocráticos.

“Nesses casos, aplica-se o chamado dever de cuidado, de modo que a plataforma deve atuar de maneira diligente e proativa para que esses conteúdos não circulem, independentemente de qualquer notificação ou ordem judicial.

Mota e Marsiglia argumentam que todas as leis que protegem o ambiente real hoje já protegem o ambiente virtual e, se não forem suficientes, cabe ao Congresso mudá-las.

“Podem não ser as leis que eles gostariam, mas dizer que não há leis, é uma completa inverdade”, diz Marsiglia, que emenda:

“As plataformas vão ser obrigadas a retirar conteúdo proativamente, que é o chamado dever de cuidado. Mas o conceito desses conteúdos é muito subjetivo. Por exemplo, o que quer dizer conteúdo antidemocráticos? Pode querer dizer tudo, como tem acontecido no processo do golpe. E isso pode resultar numa proatividade excessiva das plataformas em retirar tudo ou muito por medo de serem punidas e resultar em censura”, diz Marsiglia.

A decisão proferida pelo supremo diz que enquanto o Congresso Nacional não editar nova lei sobre o tema, esta é a regra que vale.

Facebook
Twitter
WhatsApp
Telegram
Anúncio

Cuiaba - MT / 4 de julho de 2025 - 0:57

LEIA MAIS