Apuração Eleições 2024 Legislativo Judiciário Executivo

PL das Fake News: Entenda o projeto de lei que pode contribuir na prevenção de ataques a escolas

Proposta que trata da regulação de plataformas digitais no Brasil deve voltar à discussão na Câmara dos Deputados na próxima semana

Escrito por Luana Barros , luana.barros@svm.com.br
Câmara dos Deputados
Legenda: Projeto deve voltar a ser analisado por deputados federais na próxima semana
Foto: Pablo Valadares/Câmara dos Deputados

Na próxima quarta-feira (26), a Câmara dos Deputados volta a analisar a possibilidade de acelerar a votação do Projeto de Lei 2630/2020 – batizado de "PL das Fake News". O nome pelo qual ficou conhecida, no entanto, não abarca a totalidade da proposta, cujo foco é a regulação do funcionamento de plataformas digitais no País, com foco na liberdade, responsabilidade e transparência. 

A iniciativa trata desde aspectos amplos, como a necessidade de maior transparência por parte das empresas – funcionamento de algoritmos e moderação utilizada internamente – até pontos específicos, como a ampliação da imunidade parlamentar para as redes sociais e a determinação de regras para contas consideradas de interesse público.

O projeto também incide sobre a moderação de conteúdo nestas plataformas – questão que ganhou relevo após recentes atentados contra escolas no Brasil. Uma das medidas adotadas pelo governo federal, como forma de combate a novos ataques, trata da definição de medidas a serem adotadas por plataformas para retirada de publicações com incitação à violência contra instituições de ensino.

Veja também

A necessidade de avaliação de conteúdos – e responsabilização das plataformas – em casos de estímulo à violência, por exemplo, tem sido uma das justificativas para retomar a discussão no Congresso Nacional, que vinha travada desde o ano passado. Outros episódios, como o atentado cometido no 8 de janeiro contra às sedes dos Poderes Executivo, Legislativo e Judiciário, em Brasília, também entram na argumentação. 

Contudo, apesar de serem relevantes para a discussão – inclusive, em alguns casos, aumentando a pressão para dar maior celeridade à votação do PL –, estes casos não devem ser tomados como base para aprovação de legislações como a que está em discussão no Congresso.

"É muito perigoso a gente encontrar uma forma de regulação baseada na exceção, sejam os atentados nas escolas, seja o 8 de janeiro", ressalta a coordenadora da área de Liberdade de Expressão do InternetLab, Iná Jost.

"A primeira coisa que a gente precisa pensar nesse caso é que essas regulações não são estruturadas para exceções. Elas são estruturadas para a regra, para o cotidiano das pessoas. A gente está o tempo inteiro interagindo nessas plataformas. Então, essa lei deve pensar, obviamente, sobretudo, mas ela deve pensar muito sobre o nosso cotidiano". 
Iná Jost
Coordenadora da área de Liberdade de Expressão do InternetLab

O caminho percorrido pelo PL 2630/2020

Ao falar sobre a votação da proposta de regulação das redes sociais, o presidente da Câmara dos Deputados, Arthur Lira (PP-AL), fez alerta semelhante. "Tenho muita preocupação em legislar em um momento de crise. Não é aumentando penas ou fazendo determinados atos imediatistas que vamos corrigir esse problema", disse em entrevista no último domingo (16). 

Apesar disso, ele ressaltou que pretende sim votar o projeto de lei ainda em abril – no dia 26, estará sob análise o regime de urgência e, caso aprovado, no dia 27 será analisado o mérito do texto, que é relatado pelo deputado federal Orlando Silva (PCdoB-SP). 

Professora da Universidade Federal do Ceará (UFC) e integrante integrante do DiraCom – Direito à Comunicação e Democracia, Helena Martins aponta que os acontecimentos recentes mostram "a necessidade de regular as plataformas", mas ressalta que, por exemplo, os ataques recentes às escolas não têm "como único fundamento, talvez nem mesmo como principal fundamento, o que acontece nas redes".

Conforme reportagens do Diário do Nordeste, a garantia da segurança escolar passa por diversos elementos, entre os quais medidas nas áreas de segurança pública e saúde, tomadas tanto a médio como a longo prazo. 

Veja também

Por outro lado, as regras descritas pelo projeto, batizado de PL das Fake News, mas que busca, na verdade, instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet também deve ter, caso aprovado, uma implicação ampla no funcionamento de uma sociedade cada vez mais atrelada à plataformas digitais. 

"Pensar que (esse projeto) vai regular o nosso cotidiano, (...) como a gente interage a nível de sociedade já que a gente está falando das plataformas que são os canais atuais de comunicação", reforça Iná Jost.

A proposta sob análise agora é diferente daquela apresentada em 2020, e aprovada no mesmo ano no Senado Federal. Na época, o principal foco era o combate à desinformação e à disseminação de notícias falsas – por isso, o nome pelo qual ficou conhecida. 

Contudo, com o avanço das discussões, a ênfase passou a ser em dois pontos considerados fundamentais por instituições, pesquisadores e parlamentares que acompanham o tema: os mecanismos de transparência das plataformas e de "devido processo", ou seja, como a plataforma deve proceder para a remoção de conteúdo, dando, inclusive, espaço para contestação do usuário.  

Transparência nas plataformas digitais

A transparência quanto ao funcionamento das plataformas é o principal ponto ressaltado tanto por Martins como por Jost a respeito da regulação pretendida pelo projeto de lei em análise. Os mecanismos de escolha sobre qual conteúdo chega ao usuário, por exemplo, deve ter o entendimento mais transparente – de acordo com o projeto. Assim, será possível compreender quais os algoritmos usados, e como eles funcionam, para a distribuição de conteúdos e mesmo na construção de bolhas algorítmicas. 

Estas "bolhas" funcionam como um sistema retroalimentativo – quanto mais um usuário consome um determinado tipo de conteúdo, mais a plataforma disponibilizará publicações semelhantes para ele, construindo espécies de bolhas, nas quais, em algumas ocasiões, não há acesso a conteúdos com posicionamentos distintos. 

"E as pessoas acabam, portanto, ficando menos abertas ao debate público, ao debate do contraditório, (porque) elas não são expostas à diversidade de opiniões". 
Helena Martins
Professora da UFC

A transparência algorítmica, portanto, é importante, inclusive, para "garantir um ambiente mais democrático nas redes", completa a professora. Legislações internacionais, como a Lei de Serviços Digitais aprovada pela União Europeia, estão servindo de modelo neste caso, porque já começaram a ser implementadas. 

O projeto portanto oferecerá mais "informação sobre como os algoritmos de recomendação e moderação de conteúdo funcionam para que a gente saiba porque que a gente está consumindo determinados conteúdos em detrimento de outros", resume Iná Jost. Essa transparência permitirá também tomar decisões, como a remoção de conteúdos, acrescenta a pesquisadora. 

A ênfase na transparência passa a abarcar, então, os conteúdos retirados. Atualmente, nem sempre os motivos para que uma plataforma retire do ar uma publicação ou perfil é explicitada pela empresa. O usuário também não tem poder de contestar aquela decisão, por nem sempre saber o que motivou e pôr, em geral, não ter um canal específico para isso. 

O projeto foca, portanto, "na arquitetura das plataformas na questão da transparência e da moderação", conceitua Jost, ao propor a regulação. "Não se vai atribuir ao Twitter, por exemplo, a possibilidade de dizer o que é falso e o que é verdadeiro. Vai se fazer com que o Twitter diga como ele encara esses conteúdos e como ele lida com esse tipo de post", detalha.

Risco à liberdade de expressão?

Essa não será a primeira vez que o regime de urgência do PL 2630 é analisado pelos deputados federais. Em 2022, houve uma tentativa de votação para acelerar a tramitação, mas acabou sendo rejeitada. Na época, parlamentares da base aliada ao ex-presidente Jair Bolsonaro (PL) – agora oposição ao Governo Lula – travaram a medida sob justificativa de suposto risco à liberdade de expressão. 

Na época, deputados federais de partidos como o Novo e o PL citam que a legislação pode atrapalhar a "disseminação de notícias verdadeiras" ou ser usada "contra oponentes". Sem conseguir os 257 votos para aprovar o regime de urgência, o projeto acabou sendo travado na Câmara. 

As pesquisadoras entrevistadas pelo Diário do Nordeste discordam das justificativas utilizadas por parlamentares opositores. O que não significa que não seja preciso estar atento a eventuais riscos. 

O principal deles, ressaltam, é de que o controle de "curadoria" dos conteúdos publicados fiquem sob controle das plataformas, tornando-as responsáveis por aquilo que pode ou não circular nas redes sociais, como espécie de mediadora da arena de debate público desenvolvida digitalmente. 

"Ao atribuir a elas esse poder, acaba ficando refém de grandes empresas que podem retirar conteúdos que, na verdade, são legais e que teriam a possibilidade de circular", explica Iná Jost. 

Neste modelo, as plataformas seriam colocadas como "curadoras do debate público" com receio de eventual responsabilização pelo Poder Judiciário devido a conteúdos. Segundo Jost, estudos comprovam que, se esse fosse o caso, as plataformas agiriam de forma "proativa" o que ocasionaria a retirada excessiva de conteúdos. 

A consequência seria um "efeito inibidor" por parte das plataformas, que tenderiam a "atuar diretamente na moderação de conteúdos para evitar serem responsabilizados", explica Helena Martins. 

A preocupação é devido ao processo "delicado" envolvido na moderação, no qual é necessário "uma avaliação de texto, de contexto", algo no qual as plataformas têm dificuldade devido a diversos fatores, como a falta de trabalhadores, tanto em número como em habilitação para realizar o trabalho. 

"Então, muito provavelmente seria uma moderação feita com inteligência artificial e outros mecanismos ainda menos sensíveis a essas dificuldades de avaliar um conteúdo", ressalta Martins. 

Necessidade de órgão regulador

Atualmente, as plataformas só passam a ser responsabilizadas por conteúdo publicado por determinação judicial, quando são obrigadas, por exemplo, a remover determinada publicação ou suspender uma conta ou perfil. Essa prerrogativa de atuação do Poder Judiciário na definição daquilo que pode ou não ter circulação nas redes sociais. 

O acréscimo de novos conceitos por sugestão do governo federal ao relator da proposta, deputado Orlando Silva, pode mudar isso. A mudança no texto passaria a prever o "dever de cuidado" das plataformas em relação aos conteúdos. Este dever ocorreria principalmente em relação a publicações com risco de terem teor criminoso. 

Assim, identificando, por exemplo, crimes como racismo, promoção de violência contra as mulheres ou tentativas de ferir direito de crianças e adolescentes, a plataforma poderá agir para retirar a publicação. 

"A meu ver esse mecanismo é perigoso, porque, no afã de tentar acelerar os procedimentos de retirada desses conteúdos nocivos da internet, acaba também empoderando as plataformas. Me preocupa muito a possibilidade das plataformas se tornarem árbitra do que é ou não um crime, porque, concretamente, elas fariam esse julgamento e eu não confio no julgamento das plataformas", ressalta Martins.

Para a professora, esse papel deve ser primordialmente da Justiça. Outra instituição que poderia ter competência neste contexto seria um órgão regulador, embora esse não esteja previsto pela legislação. "Ou não está previsto como deveria estar. Não está especificado, não está detalhado, isso é um problema", completa Jost.

Este é apontado como um dos pontos onde a redação do PL 2630 pode avançar pelas pesquisadoras, apesar delas também concordarem que o tema é difícil e sofre resistência para discussão. 

"É preciso ter uma afirmação mais decidida por parte do governo, da necessidade de um órgão regulador. E enfrentar esse debate e mostrar que isso é mais democracia e não menos. Ter um órgão público, multi setorial, que envolva os variados agentes, que faça pesquisa, que proponha soluções, é absolutamente democrático". 
Helena Martins
Professora da UFC

Executivo x Legislativo

Enquanto a discussão aguarda na Câmara dos Deputados, portaria do Ministério da Justiça e Segurança Pública elenca medidas que, em alguns âmbitos, tocam os temas trazidos pela "PL das Fake News". No caso do documento do governo federal, a intenção é evitar a disseminação de conteúdos ilícitos, prejudiciais ou danosos em plataformas de redes sociais.

Veja também

A portaria prevê que a Secretaria Nacional do Consumidor (Senacon) instaure processo administrativo para apurar e responsabilizar as plataformas diante da propagação de conteúdos que incentivam ataques contra o ambiente escolar ou que façam apologia e incitação a esses crimes e seus perpetradores.  

Apesar da urgência em debater a regulação – pressionados por casos recentes de violência ocorridos nos País e que perpassam o funcionamento das redes sociais – a prerrogativa de discussão deveria ser do Congresso Nacional "com celeridade, com responsabilidade, com contraditório, mas dentro do seio do poder que é, por definição, um poder que discute regulação, leis", ressalta Jost.

Conceitos como o "dever de cuidado" já são trazidos na portaria, apesar de ainda não haver, do ponto de vista de legislação, nenhuma previsão destes e, portanto, "não tem clareza do que eles significam", continua a pesquisadora. 

Para Martins, a lógica do "notificar e derrubar" não é a mais interessante ao abordar a regulação. Ela ressalta que, por ser por portaria, um tema complexo acabou sendo tratado "sem debate público" e "sem envolvimento dos mais variados atores". Ela ressalta risco de, em governos futuros, por exemplo, a postura "acabar resvalando em uma conduta autoritária".  

"O melhor certamente é continuar o debate no Congresso, acelerar esse debate e aprovar uma lei com substância suficiente para de fato, contribuir com o enfrentamento dessas graves questões", completa.

Este conteúdo é útil para você?
Assuntos Relacionados