Mendonça vota pró-big techs e defende responsabilização de plataformas só após decisão judicial

0
image (1)

O ministro André Mendonça durante sessão plenária do STF, em Brasília

O ministro André Mendonça, do STF (Supremo Tribunal Federal), votou na quinta-feira (5) para manter a responsabilização das plataformas apenas após decisão judicial. Dessa forma, ele é o primeiro favorável às regras atuais e, portanto, mais alinhado às big techs. Os outros três votos criam mais obrigações às empresas.

Mendonça ressaltou o trabalho já feito pelas plataformas na tarefa de moderação de conteúdo com base nos seus termos de uso.

A base do voto do magistrado é a preocupação em resguardar a liberdade de expressão. “O cidadão, mais vigiado, mais ficará suscetível ao chamado efeito silenciador”, disse.

Outro ponto é diferenciar os diferentes provedores e estabelecer a cada um regras específicas, além de excluir as aplicações de comunicações privadas da discussão.

A manifestação do ministro foi concluída depois de duas sessões dedicadas à leitura do voto, iniciada na quarta (4).

O julgamento estava suspenso desde dezembro passado, por pedido de vista — mais tempo para análise— de Mendonça. Até então, três votos haviam sido dados, dos relatores dos dois recursos, Dias Toffoli e Luiz Fux, e do presidente Luís Roberto Barroso.

Ao mesmo tempo em que entende constitucional o artigo 19 do Marco Civil da Internet, trecho em debate, Mendonça afirmou que a remoção de perfis das redes sociais caracteriza censura prévia.

“Ao suspender o perfil de determinado usuário ou o acesso aos serviços de toda uma plataforma digital em razão da produção sistemática de desinformação, por exemplo, busca-se impedir a veiculação de novas manifestações ante o risco de se consubstanciarem em novas transgressões ao ordenamento jurídico”, afirmou.

“Dito de forma direta: para evitar nova manifestação que possa configurar um ilícito, tolhe-se a possibilidade de qualquer manifestação”, disse o ministro.

Outra questão levantada por ele é a da possibilidade de erros de moderação. Isso porque haveria o risco de que o consumidor tenha o o seu conteúdo retirado indevidamente, o que prejudicaria o exercício da liberdade de expressão, assim como potencialmente suprimiria o direito à informação de interesse público.

“Exemplos de erros de moderação trazidos pelo Idec [Instituto de Defesa do Consumidor] bem ilustram as dificuldades experimentadas pelo algoritmo para promover a remoção. Verificou-se a retirada de vídeo sobre o autoexame para evitar ou identificar câncer de mama. Ou de uma poetisa, Rupi Kaur, sobre menstruação. Ou ainda de jargões da linguagem LGBT vista fora de contexto como desrespeitosos, falhando no reconhecimento de seu valor social”, disse.

Mendonça também afirmou que as plataformas devem ser capazes de identificar se determinado conteúdo foi objeto de impulsionamento e, em caso positivo, se essa amplificação foi patrocinada pelo usuário ou se partiu de iniciativa direta da própria plataforma.

“As plataformas devem atentar ainda para a possibilidade de limitar o alcance de determinadas publicações mediante checagem de fatos e calibragem de algoritmos, coibir a utilização de contas não autênticas ou automatizadas para práticas nocivas. Ainda, impedir a monetização ou impulsionamento de contas utilizadas para fins de prática de condutas ilícitas, também promover varreduras para eliminação de contas não autênticas ou bots empregados para práticas ilícitas”, disse.

No início do voto, o magistrado defendeu que a liberdade de expressão é indispensável para a defesa das demais liberdades e dos demais direitos fundamentais e, por esse motivo, deve ter posição preferencial entre os direitos dos cidadãos.

Ainda assim, o ministro afirma destaca que a legislação precisa ser aprimorada.

“Estou preservando a essência do art. 19. Não estou dizendo que é o melhor remédio. Aliás, eu proponho uma autorregulação regulada, onde tenha maiores mecanismos para depois auferir essa responsabilidade”, disse.

De acordo com essa ideia, as plataformas podem elaborar um plano normativo próprio e o Estado seria um supervisor.

“A abordagem proposta guarda maior consonância com as tentativas de promover a autorresponsabilidade das pessoas jurídicas, a partir do sancionamento de condutas que lhes possam ser diretamente imputadas”, afirmou o ministro.

Na tese proposta por ele, os aplicativos de mensagens ficariam de fora do regramento e as plataformas teriam o dever de identificar o usuário violador de direito de terceiro e este é quem deveria ser responsabilizado.

Nos casos de remoção sem ordem judicial, seria preciso seguir protocolos para garantir ao usuário acessar as motivações da decisão, possa recorrer, que a exclusão seja feita por humano; dentre outros aspectos.

E a decisão judicial que determinar remoção de conteúdo deverá também apresentar fundamental para tal.

About Author

Compartilhar

Deixe um comentário...