Toffoli quer punição à plataforma que não remover publicações criminosas por iniciativa própria
Publicado 05/12/2024 • 21:08 | Atualizado há 4 meses
Após colapso, CEO vende empresa de US$ 310 milhões para o Walmart
Pessoas ricas seguem estas 5 regras; ‘não é só sobre o custo’, diz milionário autodidata
Bolsas Birkin rendem mais que o S&P 500. Mas bolsas de grife são realmente um investimento?
Elon Musk pede que funcionários da Tesla mantenham ações e critica vandalismo
Trump diz que ‘haverá flexibilidade’ nas tarifas recíprocas
Publicado 05/12/2024 • 21:08 | Atualizado há 4 meses
KEY POINTS
Ministro Dias Toffoli durante sessão no STF
Ton Molina/Fotoarena/Estadão Conteúdo
O ministro Dias Toffoli, do Supremo Tribunal Federal (STF), concluiu nesta quinta-feira, 4, após três sessões, a leitura do seu voto no julgamento sobre a responsabilização civil das plataformas e provedores por conteúdos publicados pelos usuários. Ele propõe novas exigências para a moderação de conteúdo e, ao mesmo tempo, defende ampliar a responsabilidade dessas empresas pelas publicações que circulam na internet. Segundo o ministro, as plataformas precisam “assumir os riscos e os ônus de sua atuação ou omissão deliberada”.
O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.
Para Toffoli, a restrição é inconstitucional porque cria uma “imunidade” para as empresas de tecnologia e, ao mesmo tempo, deixa os usuários desprotegidos em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes e golpes, discurso de ódio e fake news.
“O sistema de Justiça não pode mais esperar, não pode mais se calar. É preciso encontrar mecanismos de proteção à integridade física. É preciso zelar por nossos jovens, por nossas crianças”, defendeu. “O virtual hoje é real.”
O ministro propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começará a partir do momento em que forem notificadas pelos próprios usuários.
Toffoli chamou o modelo proposto de “sistema de notificação e análise”. Se as mudanças forem aprovadas pelo plenário do STF, caberá às plataformas analisar as publicações questionadas e verificar se devem ser removidas. Elas poderão ser punidas se mantiverem no ar postagens criminosas, mas também se removerem indevidamente conteúdos regulares.
“Do lucro, nasce o encargo”, afirmou Toffoli. “As atividades de recomendação, impulsionamento e moderação de conteúdo são intrínsecas ao modelo de negócio adotados por muitos provedores e, sendo esse o caso, como os provedores lucram com isso, devem arcar com os riscos e prejuízos que deram causa.”
O ministro também definiu um rol de “práticas especialmente graves” que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial. Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.
Veja a lista de conteúdos que podem gerar a responsabilização das plataformas mesmo sem notificação extrajudicial:
Toffoli defende que, embora as publicações sejam criadas pelos usuários, muitas vezes são impulsionadas pelas plataformas, que lucram com o engajamento. Um argumento central do voto é o de que as plataformas, provedores e redes sociais não são neutros e influenciam o fluxo de informação nos seus ecossistemas.
“Os conteúdos continuam sendo de terceiros, porque na origem foram confeccionados e/ou publicados por esses, mas ao recomendá-los ou impulsioná-los a um número indefinido de usuários o provedor acaba se tornando corresponsável pela sua difusão”, afirmou.
O ministro faz uma distinção entre as diferentes plataformas, segundo as atividades exercidas. Estão isentos, por exemplo, provedores de e-mail, plataformas de reuniões fechadas por videoconferência e plataformas e blogs jornalísticos. Já os aplicativos de mensagem não respondem por conversas privadas, mas podem ser responsabilizados por conteúdos publicados em grupos públicos e canais abertos.
As plataformas de comércio eletrônico, chamadas de marketplace, também serão afetadas pelo novo sistema, caso ele seja aprovado pela maioria do STF. Elas podem ser punidas se permitirem o anúncio de produtos de venda proibida ou sem certificação e homologação por órgãos competentes, como as TV Box, proibidas pela Agência Nacional de Telecomunicações (Anatel).
As propostas contrariam as big techs. Advogados do Facebook e do Google apresentaram seus argumentos a favor das regras como estão. As empresas consideram uma “armadilha” receber a responsabilidade pelo que publicam os usuários. Essas plataformas projetam que a mudança criará incentivos à remoção automática de publicações controversas e, em última instância, à censura prévia nas redes sociais. Uma das preocupações é diferenciar, na prática, o que é reprovável do que é criminoso, o que vai além dos termos de uso contratuais.
A tendência é que o STF faça mudanças nas regras atuais do Marco Civil da Internet, ampliando as obrigações das big techs. O julgamento será retomado na próxima semana.
Mais lidas
Após colapso, CEO vende empresa de US$ 310 milhões para o Walmart
Krispy Kreme, famosa rede americana de donuts, anuncia chegada ao Brasil
Sem lei de incentivo, Novo MASP faz reforma de R$ 250 mi e abre segundo prédio no dia 28
Milionário ensina 4 erros financeiros que podem fazer você se sentir "quebrado"
Viagens Promo é notificada por órgão do governo federal por cancelamento de voos