Publicações

No tribunal, a responsabilidade das redes sociais

No tribunal, a responsabilidade das redes sociais

15/3/2023
Valor Econômico

Por Luísa Martins e Daniela Braun — De Brasília e São Paulo

Depois de negar uma série de processos que pediam a responsabilização das redes sociais por conteúdos criminosos divulgados por seus usuários, a Suprema Corte dos Estados Unidos (EUA) decidiu levar dois desses casos a julgamento. A eventual queda do escudo que protege as “big techs”, que historicamente alegam não ser responsáveis pelo que é veiculado em suas plataformas, deve influenciar decisões em cortes brasileiras, onde o tema voltou a ganhar força, em especial, após os ataques golpistas de 8 de janeiro.

Nos EUA, o debate também envolve o papel das redes sociais na orquestração de atos antidemocráticos. As ações foram movidas contra o Google e o Twitter por familiares de cidadãos mortos nos atentados terroristas de Paris, em 2015, e de Istambul, em 2017, ambos praticados pelo Estado Islâmico. O argumento é o de que as plataformas amplificaram o conteúdo extremista, contribuindo até mesmo para que o grupo recrutasse novos integrantes.

Julgamento no Supremo dos EUA é considerado divisor de águas e deve influenciar decisões no Brasil

Já as manifestações das “big techs” se ancoram principalmente na chamada Seção 230, lei norte-americana promulgada em 1996 como um marco da garantia da liberdade de expressão. A norma prevê que as empresas devem ser imunes a processos judiciais, pois, embora veiculem informações publicadas por terceiros, não são “editoras” desse conteúdo. A Suprema Corte ouviu os dois lados na semana passada. Os juízes, agora, se reunirão em sessões sigilosas para discutir o caso. O anúncio da conclusão é esperado para junho.

Se a decisão for favorável aos familiares das vítimas, flexibilizando a interpretação da Seção 230, conglomerados globais de tecnologia precisarão adotar medidas mais assertivas para restringir o alcance de conteúdos terroristas, extremistas e violentos. A mudança no modelo de negócio pode vir a calhar para o Brasil, no momento em que 1.406 pessoas são investigadas por incitar, financiar ou executar os ataques às sedes dos Três Poderes em Brasília.

“Como os sistemas jurídicos dos EUA e do Brasil são diferentes, uma decisão da Suprema Corte americana não tem caráter vinculante em relação ao nosso país. No entanto, pode inspirar e influenciar tanto os legisladores brasileiros quanto os próprios tribunais”, afirma o advogado Fabrício Polido, especialista em inovação e professor associado de Direito Internacional, Direito Comparado e Novas Tecnologias da Universidade Federal de Minas Gerais (UFMG).

Ministros do Supremo Tribunal Federal (STF) e do Tribunal Superior Eleitoral (TSE), alvos constantes da rede virtual de desinformação que culminou nos ataques de 8 de janeiro, têm defendido publicamente que o Congresso Nacional aprove uma lei nesse sentido. O entendimento geral é o de que o princípio constitucional da liberdade de expressão não engloba discursos de ódio, violência ou terrorismo, que devem ser energicamente combatidos.

“As redes sociais têm que ser chamadas ao Estado Democrático de Direito, ou criaremos um ambiente de faroeste digital”, disse a ministra Cármen Lúcia, recentemente, em entrevista ao programa Roda Viva, da TV Cultura. Em palestra na Conferência Global da Unesco, em fevereiro, o ministro Luís Roberto Barroso afirmou que as providências são urgentes. “Já ficou para trás o tempo em que se acreditava que a internet poderia ser livre, aberta e não-regulada.”

Internamente, o STF também avalia que eventual decisão da Suprema Corte americana para responsabilizar as plataformas é mais um elemento a chancelar as ordens do ministro Alexandre de Moraes – precedentes internacionais costumam ser citados a título de comparação. O atual presidente da Justiça Eleitoral tem aplicado uma série de multas às empresas que mantêm notícias falsas (“fake news”) no ar. Para ele, as redes sociais foram “instrumentalizadas”.

No início de março, Moraes se reuniu com representantes das plataformas no TSE e anunciou que tem conversado sobre o assunto com o presidente do Senado Federal, Rodrigo Pacheco (PSD-MG). “A regulamentação vai sair, mas é importante que seja uma boa regulamentação. Não adianta uma regulamentação extrema. Quanto mais a gente conseguir uma autorregulação, com um acordo geral, menos a necessidade de uma regulamentação oficial”, disse ele na ocasião.

No âmbito do governo do presidente Luiz Inácio Lula da Silva, as articulações sobre uma regulação que amplie a responsabilidade das plataformas digitais pelos conteúdos sugeridos, impulsionados e mediados têm partido de diversas pastas, incluindo os ministérios da Justiça, dos Direitos Humanos e a Casa Civil, além da Secretaria de Políticas Digitais, estabelecida em janeiro como parte da Secretaria de Comunicação (Secom).

A ideia seria incluir as novas regras em um substitutivo do atual Projeto de Lei 2.630, conhecido como “PL das ‘Fake News’”, já aprovado no Senado e que agora tramita na Câmara dos Deputados. Mas o teor da proposta, diante de sua alta complexidade, ainda está em discussão.

A conselheira do Comitê Gestor da Internet no Brasil (CGI.Br) Bia Barbosa afirma que o Marco Civil da Internet, de 2014, já não reflete a realidade atual de interferência dos algoritmos na exposição e viralização de conteúdos.

“Passados quase dez anos do Marco Civil, temos dezenas de estudos mostrando os impactos negativos de se privilegiar o engajamento, ou seja, o tempo de permanência nas redes”, alerta Bia, representante da sociedade civil no Comitê. “Se a plataforma vai monetizar, impulsionar ou recomendar determinados conteúdos, passa a ser responsável por eles. O modelo interfere um pouco no funcionamento das plataformas, mas desestimula a geração de conteúdos nocivos, porque hoje vale tudo em função da audiência.”

A criação de um órgão regulador independente para avaliar se e como regras de responsabilização das redes são cumpridas é essencial para que a lei tenha efeito, afirma a conselheira. “Na Alemanha, por exemplo, a lei não veio sozinha, mas tem todo um arcabouço legal para que as respostas das plataformas sejam avaliadas e um órgão regulador analisando essa atuação de perto”, pondera.

A regulação aprovada pela Comissão Europeia com a lei de mercados digitais (Digital Markets Act) e a de serviços digitais (Digital Services Act), que entram em vigor neste ano, são referências importantes na discussão de responsabilidade das plataformas, destaca o advogado Renato Opice Blum. “Eles ampliam as responsabilidades até preventivas sobre conteúdos nocivos porque hoje existem algoritmos que permitem isso”, cita o especialista.

O julgamento do caso nos EUA tem sido classificado como um potencial “divisor de águas” do futuro da internet. Em uma petição protocolada no tribunal, o Departamento de Justiça (DoJ) americano destacou o fato de que a Seção 230 é de quase 30 anos atrás, quando as redes sociais ainda eram praticamente um conceito teórico, sem peso relevante na disseminação de discursos de ódio e desinformação. Portanto, seria preciso uma readequação para os dias atuais.

“Já não está mais em jogo o argumento de que as plataformas evitam intervir em conteúdo online por conta da proteção da liberdade de expressão de usuários. A sensibilidade está no uso das plataformas para violação de direitos fundamentais online. Há uma nova modalidade de conteúdo infrativo – conteúdo antidemocrático, tendente à abolição do Estado Democrático de Direito”, observa Polido.

Procurado pelo Valor, o Google defendeu a Seção 230 como garantidora da liberdade de expressão. “Sem ela, alguns sites seriam forçados a bloquear em excesso, filtrando o conteúdo que poderia criar qualquer risco legal potencial e fechar alguns serviços completamente, o que deixaria os consumidores com menos opções de engajamento na internet e menos oportunidades de trabalhar, se divertir, aprender, fazer compras e trocar ideias online.”

O Google também apontou os impactos econômicos da revisão da norma. “Sites com menos recursos teriam menos probabilidade de revisar e moderar conteúdo flagrante”, disse a empresa. “Reduzir a Seção 230 levaria empresas e sites a serem incapazes de operar e a mais ações judiciais que prejudicariam editores, criadores e pequenas empresas. Essa crescente onda de litígios reduziria o fluxo de informações de alta qualidade na internet.”

Por outro lado, o Google diz que “revisa sistematicamente as políticas de comunidade para que possam endereçar questões atuais”, garantindo “conformidade” com a legislação. “Nossas políticas cobrem áreas como discursos de ódio, assédio, segurança infantil, violência extrema, entre outras”, aponta. “Removemos conteúdo que viola nossas políticas o mais rápido possível. Para isso, usamos uma combinação de pessoas e aprendizado de máquina”. A Meta, dona das redes Instagram e Facebook, disse que não iria comentar. O Twitter não respondeu à reportagem.

Disponível em: https://valor.globo.com/empresas/noticia/2023/03/15/no-tribunal-a-responsabilidade-das-redes-sociais.ghtml

Outras notícias
Tags