Carregando...

O Supremo Tribunal Federal (STF) concluiu na quinta-feira (26/06) o julgamento que amplia as obrigações das big techs pelo conteúdo publicado por usuários na internet. Após 12 sessões, os ministros estabeleceram os critérios para punir as plataformas de redes sociais por falhas na moderação de conteúdo e fizeram um apelo para o Congresso regulamentar as redes sociais.

“O Tribunal esperou, e por alguns anos, que houvesse o procedimento legislativo do Congresso Nacional, mas nós não temos a faculdade de deixarmos de julgar alguma questão pela ausência indefinida de lei”, justificou o ministro Luís Roberto Barroso, presidente do STF, ao anunciar a decisão.

O STF definiu que é parcialmente inconstitucional a regra do artigo 19 do Marco Civil da Internet (MCI – Lei 12.965/2014). O dispositivo exige o descumprimento de ordem judicial específica para que os provedores de aplicações de internet sejam responsabilizados civilmente por danos causados por conteúdo publicado por terceiros.

Por maioria de votos, prevaleceu o entendimento de que essa norma já não é suficiente para proteger direitos fundamentais e a democracia. Assim, ficou definido, como regra geral, que as empresas respondem por crimes ou atos ilícitos e por contas falsas se não removerem esses conteúdos após notificação privada (extrajudicial). Pela decisão, as plataformas devem retirar os seguintes tipos de conteúdo ilegais após notificação extrajudicial: Atos antidemocráticos; Terrorismo; Induzimento ao suicídio e automutilação; Incitação à discriminação por raça, religião, identidade de gênero, condutas homofóbicas e transfóbicas; Crimes contra a mulher e conteúdos que propagam ódio contra a mulher; Pornografia infantil; Tráfico de pessoas. 

O presidente Luís Roberto Barroso destacou o esforço do colegiado na formulação da tese de repercussão geral. Ele salientou a riqueza dos debates e a disposição dos ministros em encontrar uma tese que contemple, em maior ou menor parte, as diversas posições. A questão foi debatida no Recurso Extraordinário (RE) 1037396 (Tema 987 da repercussão geral), relatado pelo ministro Dias Toffoli, e no RE 1057258 (Temas 533), relatado pelo ministro Luiz Fux.

Crimes contra a honra

De acordo com a tese de repercussão geral, nas alegações de crimes contra a honra, os provedores só podem ser responsabilizados (ter o dever de pagar indenização) se descumprirem uma ordem judicial para a remoção do conteúdo. Nada impede, porém, que as plataformas removam publicações com base apenas em notificação extrajudicial. Também ficou definido que, quando um fato ofensivo já reconhecido por decisão judicial for repetidamente replicado, todos os provedores deverão remover as publicações com conteúdos idênticos a partir de notificação judicial ou extrajudicial, independentemente de novas decisões judiciais nesse sentido.

O Tribunal também fixou as hipóteses em que os provedores estão sujeitos à responsabilização civil se não atuarem imediatamente para retirar conteúdos que configurem a prática de crimes graves. A lista inclui, entre outros, conteúdos referentes a tentativa de golpe de Estado, abolição do Estado Democrático de Direito, terrorismo, instigação à mutilação ou ao suicídio, racismo, homofobia e crimes contra mulheres e crianças.

Neste caso, a responsabilização ocorre se houver falha sistêmica, em que o provedor deixa de adotar medidas adequadas de prevenção ou remoção dos conteúdos ilícitos, em violação do dever de atuar de forma responsável, transparente e cautelosa.

Crimes em geral

De acordo com a decisão, enquanto o Congresso Nacional não editar nova lei sobre o tema, a plataforma será responsabilizada civilmente pelos danos decorrentes de conteúdos gerados por terceiros em casos de crimes em geral ou atos ilícitos se, após receber um pedido de retirada, deixar de remover o conteúdo. A regra também vale para os casos de contas denunciadas como falsas.

Também ficou definido que os provedores deverão editar autorregulação que abranja um sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos. As plataformas deverão disponibilizar canais permanentes e específicos de atendimento, preferencialmente eletrônicos, acessíveis e amplamente divulgados.

Ficaram vencidos nesses pontos os ministros André Mendonça, Nunes Marques e Edson Fachin, que consideram constitucional a exigência de ordem judicial em todas as hipóteses.

Atribuição do Congresso

Único a votar na tarde de quinta-feira, o ministro Nunes Marques afirmou que a responsabilidade civil na internet é, principalmente, do agente que causou dano, não do que permitiu a veiculação do conteúdo. Ele considera que o MCI prevê a possibilidade de responsabilização da plataforma, caso sejam ultrapassados os limites já previstos na lei. Para o ministro, essa questão deve ser tratada pelo Congresso Nacional.

Casos concretos

No RE 1037396, o Facebook Serviços Online do Brasil questionou decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da rede social e o pagamento de indenização por danos morais. Por maioria, foi mantida a decisão.

Já no RE 1057258, o Google Brasil Internet contestou decisão que o responsabilizou por não excluir da extinta rede social Orkut uma comunidade criada para ofender uma pessoa e determinou o pagamento de danos morais. Também por maioria, a decisão foi reformada e afastada a condenação.

Confira a íntegra da tese de repercussão geral.