Google e Facebook apontam risco de censura diante da proposta de regulação das redes
Empresas defendem no STF que notificações extrajudiciais podem gerar remoções arbitrárias e comprometer a liberdade de expressão
Representantes do Google e do Facebook defenderam, nesta quarta-feira (27/11), no Supremo Tribunal Federal (STF), a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014). O dispositivo determina que plataformas digitais só podem ser responsabilizadas por conteúdos de terceiros caso descumpram uma ordem judicial específica para remoção. As manifestações das empresas foram destacadas em reportagem do Conjur, que acompanhou o início do julgamento de duas ações de repercussão geral sobre o tema.
Os processos analisados pelos ministros envolvem questões centrais como a responsabilização das plataformas por conteúdos de usuários e a retirada de materiais considerados ilegais por notificações extrajudiciais. As empresas argumentaram que mudanças no modelo atual poderiam abrir precedentes para censura e prejudicar a liberdade de expressão.
O que está em jogo no STF
O Recurso Extraordinário 1.037.396, relatado pelo ministro Dias Toffoli, examina a constitucionalidade do artigo 19 do Marco Civil, discutindo um caso de perfil falso criado no Facebook. Já o Recurso Extraordinário 1.057.258, relatado pelo ministro Luiz Fux, trata da possibilidade de remoção de conteúdos com base em notificações extrajudiciais, como no episódio que obrigou o Google a apagar uma comunidade no extinto Orkut.
Adicionalmente, a Arguição de Descumprimento de Preceito Fundamental (ADPF) 403, de relatoria do ministro Edson Fachin, analisa se o bloqueio de aplicativos inteiros, por decisão judicial, viola direitos fundamentais como a liberdade de expressão e comunicação.
Declarações do Facebook
O advogado José Rollemberg Leite Neto, representante do Facebook, alertou sobre o impacto negativo que uma eventual decisão pelo uso de notificações extrajudiciais teria no debate público. “Isso importa na preservação do jornalismo profissional. Conteúdos postados nas plataformas muitas vezes têm origem em denúncias ou críticas, que poderiam ser vistas como ofensivas e removidas, causando grave prejuízo ao debate público”, afirmou.
Ele destacou que a plataforma não é inerte diante de conteúdos ilícitos, citando a remoção de 208 milhões de postagens globalmente em 2023, envolvendo materiais como pedofilia, violência e discurso de ódio. Para Leite Neto, conceitos amplos como “fake news” ou “desinformação” não podem ser usados como base para remoções automáticas, sob o risco de judicialização excessiva.
Declarações do Google
O Google, representado pelo advogado Eduardo Bastos Furtado de Mendonça, apresentou dados que reforçam a atuação ativa das plataformas na remoção de conteúdos ilícitos. Segundo ele, em 2023, o YouTube retirou 1,6 milhão de publicações no Brasil por violações de políticas internas, enquanto apenas 614 casos chegaram ao Judiciário.
“Não existe uma inércia como parte do modelo de negócio das plataformas. A maioria dos usuários e anunciantes repudia conteúdos ilícitos. Não é proveitoso que existam”, afirmou Mendonça. Ele também destacou que, em democracias, não há responsabilização objetiva das plataformas por todo conteúdo de terceiros, sendo comum que a intervenção judicial seja necessária para casos controversos.
Entenda o que é o Artigo 19 do Marco Civil da Internet
O Artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é uma das principais normas que regulam o funcionamento da internet no Brasil, especialmente no que se refere à responsabilidade das plataformas digitais por conteúdos publicados por terceiros. Ele estabelece que provedores de aplicações de internet, como redes sociais, só podem ser responsabilizados civilmente por danos decorrentes de conteúdos gerados por usuários caso descumpram uma ordem judicial específica para remoção.
O texto do artigo é claro ao condicionar a responsabilização das plataformas ao descumprimento de uma decisão judicial. Seu objetivo central é equilibrar a liberdade de expressão e o direito à informação com a necessidade de combate a abusos, como discurso de ódio, calúnia e crimes contra a honra.
Conforme o artigo:“Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”
Qual é o objetivo da regra?
O Marco Civil da Internet foi concebido para proteger a liberdade de expressão online, impedindo censuras prévias e remoções arbitrárias de conteúdos. A exigência de ordem judicial busca assegurar que a exclusão de materiais ocorra apenas após análise criteriosa por uma autoridade competente, garantindo o respeito aos direitos fundamentais.
A norma é vista como um pilar da liberdade de expressão no ambiente digital brasileiro. No entanto, também enfrenta críticas por ser considerada um entrave ao combate a conteúdos prejudiciais, como desinformação e discurso de ódio. O desafio é encontrar um equilíbrio entre os direitos individuais e coletivos, sem comprometer a pluralidade de vozes e a transparência no ambiente virtual.
A decisão do STF sobre o artigo 19 será fundamental para definir os rumos da regulação da internet no Brasil e pode influenciar debates semelhantes em outros países.
Com Brasil 247