Barroso abre divergência em julgamento no STF sobre redes sociais, e Mendonça pede vista

0
luís roberto barroso

Luís Roberto Barroso. Foto: Luis Macedo/Câmara dos Deputados

O presidente do STF (Supremo Tribunal Federal), Luís Roberto Barroso, defendeu na quarta-feira (18) que a atual regra sobre responsabilidade das plataformas de rede sociais seja declarada apenas parcialmente inconstitucional.

O tribunal debate a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele prevê que as big techs só possam ser responsabilizadas por publicações de terceiros se não agirem após decisão judicial, com exceção de casos de violação de direitos autorais e imagens de nudez não consentidas.

Para Barroso, o artigo 19 é insuficiente para o cenário atual, que demandaria regulação, mas não deve ser derrubado por completo. Ele defendeu que, em casos de ofensas e crimes contra honra, por exemplo, a necessidade de decisão judicial prévia deve continuar valendo.

Com isso, o presidente do STF abriu divergência em relação aos dois recursos relatados pelos ministros Dias Toffoli e Luiz Fux, que votaram pela inconstitucionalidade completa da regra atual.

A discussão, no entanto, foi interrompida depois de seu voto com o pedido de vista —mais tempo para análise— de André Mendonça. Assim, o julgamento só será concluído em 2025. Esta é a penúltima sessão do ano.

Mendonça afirmou desejar refletir mais sobre o aspecto da questão da honra. Para ele, o tema merece uma diferenciação entre pessoas privadas e agentes públicos.

“Acusar alguém de ditador para uma pessoa comum talvez seja extremamente injusto, mas, para um político, talvez faça parte do debate público, e democracia se fortalece pelas críticas públicas”, disse.

Para Barroso, a necessidade de decisão judicial nesses casos é fundamental para a proteção da liberdade de expressão.

“Nós estamos falando da responsabilização da plataforma. Não evidentemente do autor do insulto”, ressaltou.

Segundo ele, o Supremo tem uma tradição de defesa da liberdade de expressão, que deve ser preservada, sendo restringida pela corte apenas em casos de discurso de ódio ou teorias conspiratórias.

Barroso também defendeu o conceito de “dever de cuidado”, em que as big techs poderiam ser responsabilizadas por falhas sistêmicas na moderação, e não pela conduta em relação a conteúdos específicos. As big techs devem, pela visão dele, produzir relatórios nos quais demonstrem as ações tomadas contra a disseminação de conteúdos impróprios.

A medida se contrapõe ao monitoramento ativo ativo de publicações defendido pelo ministro Fux em seu voto, que recairia sobre materiais específicos.

Mesmo depois do pedido de vista, os ministros fizeram diversas perguntas a Barroso, tirando dúvidas a respeito sobre trechos do voto e sobre os limites e procedimentos propostos pelo ministro.

Barroso também entendeu que um órgão independente deve acompanhar o caso. Toffoli propôs a criação de uma série de deveres para as plataformas e a criação de um departamento no CNJ (Conselho Nacional de Justiça) para acompanhamento do cumprimento da decisão.

Outra divergência de Barroso foi quanto à possibilidade de responsabilização objetiva das plataformas, ou seja, independentemente de notificação e culpa –como defendeu Toffoli.

Diferentemente dos colegas que já votaram, ele adota uma posição intermediária em relação à possibilidade de punição das empresas por postagens de usuários das redes.

Para o presidente do tribunal, ainda, a manutenção do artigo 19 também exige novos requisitos de controle das redes sociais e da responsabilização das empresas. A internet, segundo ele, permitiu a chegada de qualquer pessoa ao espaço público sem nenhum tipo de controle. “Abriu o espaço no mundo para a desinformação, mentiras deliberadas, discursos de ódio, teorias conspiratórias que fazem a vida ficar pior”, disse.

“É preciso enfrentar os comportamentos ilícitos e os perigosos que podem acontecer. É o ponto mais delicado. A regulação de conteúdos e de comportamentos inautênticos coordenados, que às vezes passa abaixo do radar das pessoas, com a utilização de artifícios para amplificar a desinformação, a mentira, usando os bots”, disse.

Para Barroso, o Marco Civil da Internet apresenta uma proteção insuficiente para direitos fundamentais e mesmo para a democracia.

“O MCI foi pensado num tempo em que se acreditava na neutralidade da rede, da internet. E ainda não se tinha a dimensão em 2014 do que viria adiante e da magnitude do impacto negativo que a desinformação traria para a sociedade”, disse.

Assim como na sessão inaugural do julgamento, Barroso repetiu que o Supremo não está legislando. De acordo com ele, o tema é relevante e demanda uma regulação.

“Enquanto não há lei, precisamos definir um regime jurídico para isso. O Poder Judiciário não pode pular fora. Nós temos o papel de julgar aquilo que se apresenta ao Poder Judiciário, estabelecendo nós mesmos o critério que vai pautar as decisões até que o Congresso atue. Nós só estamos procurando estabelecer um regime jurídico porque ainda não se conseguiu produzir consenso no Congresso sobre esse assunto”, disse.

Em contraposição a Toffoli, ele também afirmou que não inclui obrigação adicional para marketplaces, que abrange plataformas como Mercado Livre, Shopee e Amazon.

Toffoli defendeu que elas devem ter responsabilidade, independentemente de notificação ou decisão judicial, nas hipóteses de produtos de venda proibidas, sem certificação ou homologação pelos órgãos competentes do país.

O Marco Civil da internet é uma lei com direitos e deveres para o uso da internet no país, aprovada em 2014. Ela estabelece direitos e garantias para a vida digital e o uso das redes, buscando proteger a privacidade e os dados de usuários, assegurando a inviolabilidade e o sigilo das comunicações e estabelecendo o direito à cidadania digital.

À época, a regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas é que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas; por outro lado, críticos dizem que a regra desincentiva as empresas a combater conteúdo nocivo.

No Supremo, Barroso pautou o tema, segundo afirmou na primeira sessão sobre o tema, após o Congresso não legislar sobre a matéria.

O ministro Dias Toffoli votou no dia 5 de dezembro pela tese de que as redes devem ser responsáveis independentemente de decisão judicial para obrigá-las a remover conteúdos.

Para ele, as plataformas devem agir assim que avisadas por alguém que se sentiu ofendido —e, em alguns casos, nem deveria ser necessária notificação, como para perfis falsos e situações de terrorismo.

About Author

Compartilhar

Deixe um comentário...