O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), afirmou nesta quinta-feira, 12, que as plataformas não são neutras, imparciais e transparentes, durante leitura de seu voto no julgamento sobre a responsabilização das big techs por conteúdos publicados por usuários. Informações do O antagonista.
“Ninguém tem nenhuma dúvida que esse meio de comunicação não é neutro, não é imparcial, não é transparente. Não há transparência na utilização dos algoritmos. Esses meios de comunicação, as big techs têm – com todo direito a ter – têm ideologia política, têm crença religiosa aqueles que dominam. Não há nenhum problema nisso, só que não podem querer posar de instrumentos neutros, instrumentos imparciais. Se eles têm lado, têm ideologia, eles devem – como todos aqueles que têm lado e ideologia – serem responsabilizados pelos seus abusos”, disse o ministro.
O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), afirmou nesta quinta-feira, 12, que as plataformas não são neutras, imparciais e transparentes, durante leitura de seu voto no julgamento sobre a responsabilização das big techs por conteúdos publicados por usuários.
“Ninguém tem nenhuma dúvida que esse meio de comunicação não é neutro, não é imparcial, não é transparente. Não há transparência na utilização dos algoritmos. Esses meios de comunicação, as big techs têm – com todo direito a ter – têm ideologia política, têm crença religiosa aqueles que dominam. Não há nenhum problema nisso, só que não podem querer posar de instrumentos neutros, instrumentos imparciais. Se eles têm lado, têm ideologia, eles devem – como todos aqueles que têm lado e ideologia – serem responsabilizados pelos seus abusos”, disse o ministro.
Moraes, que ainda não terminou a leitura de seu voto, é o sexto ministro a proferir seu entendimento sobre o tema.
Na quarta, 11, a Corte formou maioria a favor da responsabilização das big techs por conteúdos postados por usuários.
O último a votar foi o decado Gilmar Mendes, que criticou a ausência de responsabilização das empresas e afirmou que o Marco Civil representa “véu da irresponsabilidade para plataformas digitais”.
“Mesmo que sejam informadas da ocorrência de crimes em suas plataformas, elas não podem ser responsabilizadas por danos gerados por manter esse conteúdo no ar, a não ser em caso de ordem judicial”, afirmou o ministro.
Antes dele, os ministros Luiz Fux, Dias Toffoli, Flávio Dino, Cristiano Zanin e Luís Roberto Barroso, presidente do STF, já tinham votado para endurecer as regras para as big techs. Contudo, seus votos divergiram quanto à forma como isso vai ocorrer.
O único voto contrário, até o momento, foi o do ministro André Mendonça, que defendeu a constitucionalidade das normas atuais previstas no Marco Civil da Internet.
Mesmo com maioria formada, ainda restam os votos de Cármen Lúcia, Edson Fachin e Kássio Nunes Marques.
Casos em análise
O STF julga conjuntamente dois recursos extraordinários com repercussão geral reconhecida.
O primeiro, RE 1.037.396 (Tema 987), relatado por Toffoli, questiona a constitucionalidade do artigo 19 em um caso envolvendo um perfil falso criado no Facebook.
O segundo, RE 1.057.258 (Tema 533), relatado por Fux, discute a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo de usuários e a possibilidade de remoção com base em notificações extrajudiciais, originado de uma decisão que obrigou o Google a apagar uma comunidade do Orkut.
A decisão do STF é aguardada com expectativa, já que poderá redefinir o papel das plataformas digitais no Brasil, incluindo o debate sobre sua responsabilidade no combate à desinformação.
Em nota, o Google se manifestou em defesa do Marco Civil da Internet.
O que diz o Artigo 19 do Marco Civil?
O artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014) aborda a responsabilidade das plataformas sociais em relação a conteúdos postados por terceiros.
“Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço, tornar indisponível o conteúdo apontado como infringente.
Parágrafo único. A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material”, diz trecho do artigo.
Com isso, as plataformas não seriam automaticamente responsabilizadas pelas postagens de usuários.
A mudança de entendimento do Supremo, contudo, faz com que as plataformas retirem publicações sem a necessidade de notificação judicial.