Bahia, 11 de dezembro de 2024 às 20:54 - Escolha o idioma:

Responsabilidade das redes sobre postagens: entenda o primeiro voto do julgamento no STF


- Crédito da Foto: Ascom/STF - Publicado em: 6 de dezembro de 2024


Ministro Dias Toffoli considerou que redes devem ser responsabilizadas por conteúdo mesmo quando não há ordens judiciais de retirada. Ele também estabeleceu alguns critérios para essa regra.

Após quatro sessões, o julgamento no Supremo Tribunal Federal (STF) sobre responsabilidade das redes sociais em postagens dos usuários teve apenas um voto, o do ministro Dias Toffoli. Ele entendeu que as redes devem responder por conteúdos danosos mesmo quando não há ordem judicial mandando retirar o post.

O julgamento já foi chamado pelo ministro Alexandre de Moraes de o “julgamento do século”. Só o voto de Toffoli levou duas sessões inteiras. Os demais ministros já informaram que também lerão votos longos — de mais de 200 páginas.

A retomada será na semana que vem, com o voto do ministro Luiz Fux.

Voto de Toffoli

Toffoli considerou que é inconstitucional a regra atualmente em vigor, segundo a qual as redes só podem ser responsabilizadas por danos quando elas não cumprem uma ordem judicial de remoção de conteúdo.

Toffoli também propôs uma tese em que fixa como será o tratamento jurídico da questão (leia mais detalhes abaixo).

O ministroi defendeu a aplicação de um novo regime de responsabilização das redes sociais por conteúdos publicados por terceiros. Propôs o “Decálogo contra a violência digital e a desinformação”, uma tese detalhada a ser aplicada para casos que envolvem o tema.

STF: Toffoli conclui voto e propõe que redes devem responder por conteúdos de usuários

Regra geral

Para Toffoli, o relator de um dos processos sobre o tema, a regra atual, prevista no Marco Civil da Internet, não é compatível com a Constituição.

Como é hoje: o artigo 19 da legislação fixa que os provedores de internet podem ser chamados a indenizar por danos causados pelos posts de seus usuários se, após uma ordem da Justiça, não promoverem a remoção do conteúdo considerado irregular.

Na prática, a regra acaba por exigir uma decisão judicial para que as plataformas tomem providências.

Como ficaria: pela proposta de Toffoli, o artigo 19 será considerado inválido. Assim, os provedores passam a ter que tomar medidas de remoção de conteúdos irregulares quando receberem uma notificação extrajudicial (da vítima das ofensas ou de seu advogado).

Essa será a regra geral. Ela já está em outro artigo do Marco Civil da Internet, mas até agora só era aplicada em situações que envolvem a divulgação de cenas íntimas, de nudez.

A ideia é que, na verificação da participação das redes nos danos, sejam consideradas as ações realizadas pelas empresas para combater a ilegalidade. A retirada de postagens em período eleitoral seguirá regras específicas.

Retirada sem notificação

Toffoli previu algumas situações em que não será necessária a notificação extrajudicial para que as plataformas tomem providências. Ou seja, nestas circunstâncias, as big techs têm o dever de agir para evitar os danos. Dessa forma, se não fizerem isso, estão sujeitas à responsabilidade objetiva.

Essa é uma modalidade de responsabilidade aplicada em alguns casos específicos previstos na legislação, em que não é preciso comprovar que houve dolo ou culpa da empresa no episódio. Uma vez com a questão em discussão na Justiça, no caso concreto, a empresa pode provar que não teve participação, ou que não há relação de causa e efeito entre a irregularidade e suas atitudes.

Situações em que os provedores devem agir, mesmo sem notificação extrajudicial:

▶️ quando recomendam, impulsionam (de forma remunerada ou não) ou moderam o conteúdo considerado irregular. Neste caso, a empresa responde junto com o anunciante (quando o conteúdo for patrocinado).

▶️ quando o dano foi causado por perfis falsos, perfis anônimos ou automatizados;

▶️ quando a irregularidade envolver direitos autorais. Também nesta situação, a empresa responde junto com a pessoa que fez a publicação ilegal.

▶️ quando a postagem ilícita envolve uma série de atos e crimes graves: crimes contra a democracia, terrorismo, instigação ao suicídio ou automutilação, racismo, violências contra a criança, o adolescente e as pessoas vulneráveis, violência contra a mulher, infrações contra medidas de saúde pública em situações de emergência em saúde, tráfico de pessoas, incitação ou ameaça à violência física ou sexual, divulgação de notícias falsas para incentivar violência física, divulgação de notícias falsas sobre o processo eleitoral.

O ministro fixou que, se a empresa tiver dúvidas sobre a ocorrência destas situações, deve remover o conteúdo quando tiver notificação extrajudicial.

Exceções

Toffoli deixou claro que estas regras não se aplicam a:

▶️ serviços de email (Gmail, Outlook, etc);

▶️ aplicativos de realização de reuniões fechadas por vídeo ou voz (Zoom, Google Meet, etc)

▶️ aplicativos de mensagens instantâneas, quando o diálogo envolve pessoas determinadas, com o resguardo de sigilo das comunicações (Whatsapp, Telegram, etc);

Em relação aos marketplaces (páginas de vendas de produtos), o ministro fixou que as empresas respondem junto com os anunciantes por propaganda de produtos de venda proibida, sem certificação ou aval dos órgãos competentes.

Deveres das plataformas

Toffoli estabeleceu uma série de requisitos para os provedores de internet, que deverão:

▶️ atuar de forma responsável, transparente e cautelosa, a fim de assegurar um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da função social e da prevenção e redução dos danos;

▶️ manter atualizados e dar publicidade aos “termos e condições de uso” (ou documento equivalente); também devem elaborar códigos de conduta;

▶️ criar mecanismos para assegurar a autenticidade das contas e a correta identificação dos respectivos usuários, adotando as medidas necessárias para impedir a criação de perfis falsos e automatizando, agindo para bloqueá-los assim que forem identificados;

▶️ estabelecer regras claras e procedimentos padronizados para a moderação de conteúdos, assim como divulgar estas informações;

▶️ atualizar constantemente critérios e métodos empregados para a moderação de conteúdos;

▶️ combater a difusão de desinformação nos ambientes virtuais, adotando as providências necessárias para a neutralização de redes artificiais de distribuição de conteúdo irregular, assim como identificar o perfil que originou a notícia falsa;

▶️ monitorar riscos de seus ambientes digitais, elaborando relatórios de transparência;

▶️ ofertar canais específicos de notificação, preferencialmente eletrônicos, para o recebimento de denúncias quanto à existência de conteúdo considerado ofensivo ou ilícito, que terá apuração prioritária; estes canais devem permitir o acompanhamento das reclamações.

▶️ atuar para previnir e reduzir práticas ilegais no seu âmbito de atuação;

▶️ sendo provedores de internet com sede no exterior e atuação no Brasil, ter representante no país, cuja identificação e informações para contato devem ser divulgadas;

Responsabilidade por danos

Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.

Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.

Marco Civil da Internet

🛜Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.

Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.

A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.

A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.

Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.

Por Fernanda Vivas, TV Globo — Brasília