STF retoma julgamento já com maioria para responsabilizar redes sociais por conteúdo de usuários
Nesta quinta, devem votar os ministros Edson Fachin e Alexandre de Moraes. Plenário tenta um consenso sobre forma de responsabilizar empresas; há diferentes propostas em análise. O Supremo Tribunal Federal retoma, nesta quinta-feira, (12), o julgamento de recursos que tratam da responsabilização das redes sociais pelo conteúdo publicado por seus usuários.
Já há maioria no sentido de que as plataformas devem responder pelas postagens de terceiros, mas os ministros ainda trabalham no detalhamento da tese, ou seja, do resumo que vai orientar a aplicação da decisão.
Votaram para responsabilizar os provedores de internet os ministros Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar e o presidente Luís Roberto Barroso. O ministro André Mendonça divergiu. Veja abaixo:
STF forma maioria para responsabilizar plataformas por conteúdos de usuários
Nesta quinta-feira (13), devem ser apresentados os votos dos ministros Edson Fachin e Alexandre de Moraes. Na sequência, o julgamento será suspenso para a organização das propostas.
Os magistrados também trabalham na busca de um consenso, já que os ministros propuseram diferentes soluções para o regime de responsabilização das empresas.
Após esta etapa, ministro Nunes Marques e a ministra Cármen Lúcia vão apresentar seus posicionamentos.
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam acionadas por conta de danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja: a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet.
A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte elabora uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça. Segundo dados do Conselho Nacional de Justiça, há 344 processos suspensos, aguardando um desfecho.
Marco Civil da Internet: julgamento no STF pode mudar regras sobre uso da internet no país
Votos dos ministros
Saiba como votaram os demais ministros até o momento:
Dias Toffoli
Relator de um dos recursos, Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet.
O ministro defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial.
O ministro defendeu ainda que, em situações graves, as plataformas devem retirar o conteúdo mesmo sem a notificação extrajudicial. Toffoli entendeu que se as plataformas digitais deixarem de agir, devem ser responsabilizadas.
Luiz Fux
Relator do outro processo sobre o tema, Fux também considerou que o artigo 19 do Marco Civil fere a Constituição. Da mesma maneira que Toffoli, Fux defendeu que a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, assim que a vítima notificar a plataforma.
Para Fux, serão considerados ilícitos os conteúdos que veiculem discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e a golpe de Estado.
O ministro votou para que as plataformas sejam responsabilizadas caso não ajam após notificação extrajudicial e defendeu que as empresas criem canais para receber denúncias sob sigilo e monitorem ativamente os conteúdos publicados.
Luís Roberto Barroso
O presidente do STF propôs que a responsabilização deve ocorrer quando as empresas deixarem de tomar providências necessárias para remover postagens com teor criminoso.
Nos casos de crimes contra a honra, como de injúria, calúnia e difamação, o ministro considera que a remoção do conteúdo só deve ocorrer após ordem judicial.
Barroso também propôs que as empresas têm dever de cuidado e precisam evitar conteúdos como: pornografia infantil; instigação ou auxílio a suicídio; tráfico de pessoas; atos de terrorismo; abolição violenta do Estado Democrático de Direito; golpe de Estado.
André Mendonça
No voto apresentado na semana passada, Mendonça divergiu em parte dos demais ministros.
O ministro entendeu que o artigo 19 do Marco Civil da Internet é constitucional. Afirmou, no entanto, que é preciso interpretar o trecho de acordo com a Constituição para fixar alguns pontos.
Entre eles, que é inválida a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos ou com atividade ilícita; que as plataformas em geral têm o dever de promover a identificação do usuário violador do direito de terceiros; e que não é possível responsabilizar diretamente a rede social sem prévia decisão judicial quando há possíveis irregularidades que envolvam opiniões.
Flávio Dino
Sugeriu que a responsabilização dos provedores de internet, em regra, ocorrerá pelas normas do artigo 21 do Marco Civil da Internet.
Este trecho da lei prevê a possibilidade de responsabilidade quando a plataforma digital não toma providências de retirada de conteúdo após uma notificação extrajudicial feita pela vítima ou advogado.
Nos casos de crime contra a honra, será aplicado o sistema previsto no artigo 19 do Marco Civil da Internet, em que a responsabilidade só pode ocorrer se a rede social não retirou o conteúdo após ordem judicial específica.
Segundo ele, as plataformas têm o dever de evitar que se façam perfis falsos. Nesse ponto, aplica-se a responsabilidade do Código de Processo Civil, cabível independentemente de prévia notificação judicial ou extrajudicial. Isso também se aplica a perfis de robôs, anúncios pagos e impulsionados.
Se o provedor retirar conteúdo por dever de cuidado, o autor pode pedir a liberação na Justiça. Se a Justiça liberar a publicação, não será devida indenização do provedor ao usuário.
Cristiano Zanin
Considerou que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional”.
Ele propôs três critérios: no caso de conteúdo criminoso, a plataforma seria responsável por remover o conteúdo, sem a necessidade de decisão judicial.
Já a aplicação do artigo 19 seria mantida para provedores neutros (sem impulsionamento). Quando houvesse uma dúvida razoável sobre licitude do conteúdo (assim, não haveria responsabilização imediata se houver a dúvida sobre a legalidade do material).
Gilmar Mendes
Ao consolidar a maioria favorável à responsabilidade, o ministro propôs diferentes regimes de tratamento, a depender da situação em discussão.
Um deles, chamado de “geral”, prevê a aplicação do artigo 21 do Marco Civil da Internet – ou seja, a retirada de conteúdos pelas plataformas quando notificadas de forma privada.
O regime residual seria o do artigo 19 da mesma lei, com a exigência de ordem judicial para bloqueio de conteúdos para crimes contra a honra e conteúdos jornalísticos.
Haveria também um regime de presunção, em casos de anúncios e impulsionamento remunerado. Nestas situações, o entendimento é de que as empresas têm conhecimento do conteúdo ilícito e não será necessária a notificação prévia para a responsabilização.
E, ainda, um regime especial, em que provedores seriam responsáveis por não bloquearem conteúdos imediatamente, no caso de crimes graves e material com potencial de dano grave à democracia.