Laut, Liberdade e Autoritarismo,

Antídoto ou veneno?

Liberdade, responsabilidade e transparência: um balanço do PL das ‘fake news’ no Brasil e das iniciativas similares pelo mundo

01fev2021 - 01h00 | Edição #42

Um vírus letal, que se espalha quase tão rapidamente quanto as fake news, parou 2020 — e deu um novo fôlego às discussões sobre desinformação na internet. Em maio, os deputados Tabata Amaral e Felipe Rigoni, na Câmara dos Deputados, e o senador Alessandro Vieira, no Senado, propuseram um projeto que ficou conhecido como o PL das fake news. O nome do projeto nunca foi esse — ele se chama “Lei brasileira de liberdade, responsabilidade e transparência digital” —, mas sua propositura esteve tão ligada a preocupações relacionadas à desinformação que o apelido era inevitável.

Fake news foi um termo popularizado durante as eleições norte-americanas em 2016 e eleita a expressão do ano pelo dicionário Collins em 2017. Práticas de desinformação não são novidade no Brasil, mas é inegável que, nas eleições de 2018, tivemos uma escalada na guerra narrativa e nas práticas de disseminação de falsidades e descontextualizações. Já o efeito concreto que essas práticas tiveram nos resultados eleitorais é mais polêmico e difícil de medir. Em 2020, acrescentamos ao caldo as eleições locais e uma pandemia que veio com disputas geopolíticas e de política interna envolvendo cloroquina, teorias da conspiração e campanha antivacina — e um presidente propositadamente criador de ruído. Seria o ambiente ideal para a discussão de propostas legislativas sobre fake news — se não estivéssemos então com um Congresso funcionando sem comissões e sem audiências públicas. Por alguns meses, a pressa foi a tônica, e o debate nem sempre levou adequadamente em consideração os múltiplos riscos a direitos contidos em algumas soluções propostas.

Paixões

Na primeira versão, o projeto tinha como núcleo os conceitos (bastante abertos) de desinformação (incluindo conteúdo falso e tirado de contexto) e conta inautêntica (criada ou usada para disseminar desinformação) e os deveres das empresas de internet de identificá-los e agir contra eles. Parece simples e autoevidente, mas não são poucas as complicações que essas medidas envolvem. Vale dizer, o papel que as plataformas de internet devem ter no combate a conteúdos ilícitos de várias ordens está em forte debate no mundo todo e suscita paixões.

Até alguns anos atrás, prevaleceu nas leis e no debate público nos países ditos democráticos uma ideia particular sobre a responsabilidade que as plataformas deveriam ter sobre os conteúdos que seus usuários postam. Embora as plataformas pudessem fazer por iniciativa própria o controle do conteúdo dos usuários que julguem adequado, elas não deveriam ser juridicamente responsáveis por ele. O objetivo seria o florescimento da livre expressão on-line em sua ampla diversidade — do contrário, as plataformas teriam incentivos para remover conteúdos polêmicos (e possivelmente legítimos) e para responder ao poder econômico na restrição dos discursos. 

Não é produtivo conduzir o debate em torno dos pilares precários erigidos a jato no PL das ‘fake news’

O PL das fake news, ao responsabilizar as plataformas por não tomar ações em relação a desinformação ou contas inautênticas, dava a elas protagonismo na decisão sobre o que é falso ou descontextualizado — e o que fica e o que sai. A decisão não é tão simples em todos os casos. Por exemplo: uma afirmação que não está provada, como o envolvimento de um político em um escândalo, deve ser necessariamente compreendida como falsa? Uma opinião mais veemente, ao estilo de “o prefeito não fez nada para combater a criminalidade”, pode ser avaliada como falsa caso o prefeito tenha agido, mesmo que inefetivamente? 

Nos EUA, a Seção 230 do Communications Decency Act (CDA) de 1996, lei que imuniza as plataformas em relação ao que os usuários postam, é criticada tanto por republicanos quanto por democratas — com sinais trocados. Enquanto democratas acreditam que a regra é a culpada pela proliferação de desinformação e discursos extremistas, republicanos vêm argumentando que as plataformas não deveriam gozar de nenhuma imunidade por não serem neutras, já que estariam censurando conservadores desproporcionalmente (mesmo sem evidências disso). Esse foi o mote, aliás, da polêmica Executive Order de Trump em maio, ainda antes de postagens do ex-presidente serem rotuladas como inverídicas durante toda a eleição — e de seu perfil ser bloqueado pelas plataformas no início de 2021.

Na Alemanha, a lei NetzDG, de 2017, apertou o cerco contra as plataformas, responsabilizando-as no caso de não remoção rápida de conteúdos “manifestamente ilícitos”. Isso fez com que criassem mecanismos próprios de remoção de conteúdo, exclusivos para o país. A Diretiva Europeia de Direitos de Autor, de 2019, criou uma nova responsabilidade das plataformas por violações de direitos autorais por seus usuários. Dos lados de cá, o Marco Civil da Internet, que estabelece como regra geral que a responsabilidade se dá apenas a partir de uma ordem judicial de remoção não cumprida, está sendo questionado no STF.

O movimento não é isolado, mas isso não o torna menos polêmico. Organizações de defesa de direitos humanos e relatores especiais da ONU e de outras organizações internacionais vêm expressando preocupações sobre como essas medidas podem afetar a diversidade de vozes on-line. Muitos acadêmicos argumentam, a meu ver com bastante razão, que é necessário repensar os paradigmas criados na década de 1990, mas de forma a introduzir equilíbrios no sistema, e não novos desequilíbrios. Por exemplo, Danielle Citron, professora da Universidade de Boston, diz que a imunidade prevista no cda é importante em muitos casos, mas não poderia ser concedida a plataformas que encorajam o compartilhamento de conteúdo ilícito. Nem sequer é possível transpor esse debate ao Brasil sem mediações, dadas as importantes diferenças jurídicas em torno dos regimes de responsabilidade, as diferentes doutrinas de liberdade de expressão e a nossa escandalosa desigualdade no acesso à Justiça. 

Rastreabilidade

Quando o PL das fake news passou no Senado no fim de junho, o texto já era completamente diferente. Após uma luta árdua travada por entidades de direitos digitais, as exigências (pelas plataformas) de controle de conteúdo desinformativo foram abandonadas.

Entraram pontos novos, muitos deles mais consensuais, como regras de transparência e direcionadas aos deveres dos agentes públicos. Dentre os novos elefantes brancos, um se destaca: a regra da rastreabilidade. Trata-se da exigência de que serviços de mensageria como o WhatsApp, nos quais não é possível identificar o autor de um conteúdo por causa da criptografia de ponta a ponta, incluam uma camada extra de identificação nas mensagens, para que seja possível rastrear de onde vieram. Embora o texto tente limitar essa “rotulação” a um conjunto pequeno de mensagens (aquelas “viralizadas”), há boas razões para crer que, tecnicamente, seria necessário rotular todas, já que qualquer uma pode viralizar adiante na cadeia. 

A regra tem o objetivo de chegar aos pontos originais das cadeias de desinformação, visando às práticas profissionais de manipulação do debate que se dá nesses ambientes “fechados”, mas acaba criando um mecanismo de vigilância em massa que abre toda uma sorte de preocupações com controle, liberdade e novas manipulações do debate público — em especial em um contexto de liberdades ameaçadas.

Desinformação certamente seguirá sendo um problema ao longo de 2021. Uma pesquisa recente do Laut, em parceria com o Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD) e o Laboratório de Pesquisa Forense Digital do Atlantic Council (DFRLab), mostrou que notícias falsas sobre a eficácia de cloroquina, ivermectina e azitromicina contra Covid-19 continuaram a circular com muito mais frequência no Brasil do que em outros países, mesmo depois de as decisões da fda e da oms e de estudos científicos questionarem sua eficácia. Ao mesmo tempo, nas eleições de 2020, a desinformação foi um problema marcante em algumas localidades, mas não causou a mesma impressão disruptiva de 2018. Não há clareza sobre se o PL volta a andar.

Independentemente do caminho do projeto, há uma reorientação em curso, e é inevitável pensar novos paradigmas regulatórios para a internet dos dias de hoje. Ela é infraestrutura básica e necessária para a comunicação privada e a pública, e essas regras têm implicações para direitos. O bloqueio das contas de Trump é também o símbolo de um novo momento, em que devem ganhar centralidade propostas de regras sobre a moderação de conteúdo que as plataformas fazem a partir de seus próprios termos de uso. A última versão do PL das fake news incluía algumas disposições a esse respeito. Mas, como outros pontos da lei, eram apressadas e precárias.

Em uma entrevista ao podcast Sway, do New York Times, em outubro passado, a pesquisadora Lina Khan, que foi conselheira na investigação antitruste contra as Big Tech no Congresso dos Estados Unidos, afirmou categoricamente que é preciso separar o tratamento das questões envolvendo a Seção 230 do CDA da discussão antitruste e de regulação do mercado de publicidade on-line. Uma coisa, segundo ela, não leva necessariamente à outra. Afirmações como essa importam porque, diante de preocupações legítimas e acertadas em relação ao poder das empresas de tecnologia, nosso debate vem misturando venenos e antídotos — e propondo antídotos que são novos venenos.

Ao fim e ao cabo, precisamos fazer bons diagnósticos e afirmar com força os valores que nos movem, para então propor soluções adequadas. Isso vai nos fazer voltar também a projetos mais ambiciosos de inclusão e promoção do acesso à informação e ao conhecimento, e também de justiça e igualdade nas economias digitais, que não se fixem em diagnósticos incompletos e presos a um tecnocentrismo (abordagem que isola e exacerba o papel da tecnologia em um dado processo) ou a manifestações muito específicas e conjunturais de abuso de poder. O debate regulatório não fica mais simples, mas nós evitamos nos perder mais pelo caminho.

Editoria especial em parceria com o Laut

LAUT – Centro de Análise da Liberdade e do Autoritarismo realiza desde 2020, em parceria com a Quatro Cinco Um, uma cobertura especial de livros sobre ameaças à democracia e aos direitos humanos.

Quem escreveu esse texto

Mariana Valente

É diretora do InternetLab e professora no Insper

Matéria publicada na edição impressa #42 em janeiro de 2021.