O Marco Civil, o STF, os riscos à liberdade de imprensa e as big techs

Montagem produzida por Sophia Ribeiro.

Enquanto o Supremo Tribunal Federal (STF) se prepara para retomar o julgamento da constitucionalidade do artigo 19 do Marco Civil da Internet, jornalistas e veículos de comunicação acompanham com atenção, e preocupação, os desdobramentos desse processo. Mais do que um debate técnico sobre responsabilização de plataformas digitais pelos conteúdos circulados nelas, trata-se de uma decisão que terá implicações profundas para a liberdade de imprensa no Brasil. Quando pensamos no artigo 19, entendemos que ele estabelece o seguinte: as plataformas só podem ser responsabilizadas por conteúdos de terceiros após o descumprimento de uma ordem judicial específica. Essa regra oferece uma proteção importante à liberdade de expressão e ao jornalismo investigativo, pois impede a remoção automática ou preventiva de conteúdos legítimos com base em interpretações subjetivas, mas tem sido palco de inúmeras disputas políticas, principalmente quando pensamos no embate recente do bilionário extremista Elon Musk x o ministro do STF Alexandre de Moraes.

Diante da ausência de uma atuação legislativa por parte do Congresso Nacional, o STF tem assumido esse papel de liderança nas discussões de questões regulatórias da internet. No entanto, essa atualização precisa ser equilibrada e alinhada aos princípios constitucionais e aos tratados internacionais dos quais o Brasil é signatário, como o Pacto Internacional sobre Direitos Civis e Políticos (ICCPR). Esses instrumentos fornecem critérios claros para os limites da liberdade de expressão, como incitação à violência e discurso de ódio, sem abrir espaço para interpretações amplas, imprecisas e arbitrárias. 

O receio de uma grande parcela dos jornalistas é que, como as plataformas só são responsabilizadas quando há o descumprimento de uma ação judicial, os conteúdos que necessitam urgentemente de suspensão continuam circulando nas redes. Pornografia infantil, desinformação sobre processos eleitorais, incitação à violência, discursos de ódio, golpes financeiros e apologia à abolição do Estado de Direito continuam no ar até o Judiciário ser acionado. O antropólogo David Nemer, pesquisador da área de desinformação e tecnologia, explica que esses produtos continuam no ar justamente por aumentarem o engajamento, alavancarem curtidas, comentários e compartilhamentos, que consequentemente dão uma resposta monetária positiva às big techs. Conteúdo criminoso é considerado polêmico e, portanto, gera lucro. Por outro lado, as possíveis mudanças no Marco Civil, reportagens críticas, investigações sobre corrupção e coberturas de figuras públicas, e até das próprias plataformas, como Meta ou X, poderiam ser excluídas da internet antes mesmo de qualquer análise judicial, gerando um efeito inibidor no jornalismo e prejudicando o acesso da sociedade à informação.

Caso Monark e a instrumentalização política contra a imprensa

A título de exemplo podemos citar o famigerado caso do youtuber e streamer Bruno Monteiro Aiub (popularmente conhecido como Monark). Fazendo uma rápida (não tão rápida assim) recapitulação para quem desconhece o caso, o ministro Alexandre de Moraes determinou o bloqueio de perfis dele no Rumble e Discord. As plataformas tentaram, posteriormente, recorrer da decisão, tomada pelo magistrado em 2023, e que atingiu também, além das contas citadas, outros perfis na  Meta, Telegram e Twitter. A acusação seria de que o influenciador divulgou “notícias fraudulentas” sobre a atuação do STF e do Tribunal Superior Eleitoral (TSE), e essa decisão foi tomada dentro do contexto do inquérito que apurou a omissão de autoridades nos atos de 8 de janeiro, que culminaram na tentativa de golpe de Estado e depredação das sedes dos três poderes, em Brasília. Mas o que isso tem a ver com o Marco Civil da Internet? Pois bem, o argumento do falecido Twitter seria uma interpretação arbitrária e até mesmo lesiva, perniciosa e mal intencionada da lei, na busca por uma ‘brecha’ legal:

“Além da garantia constitucional da vedação à censura, a legislação infraconstitucional, qual seja, a Lei nº 12.965/2014 (“Marco Civil da Internet”), aplicando expressamente a garantia constitucional da liberdade de expressão e a vedação à censura, prevê, em seu artigo 19, que o bloqueio de conteúdo na internet deve se limitar àquele tido por ilícito, e indica expressamente que a ordem de remoção deve conter, sob pena de nulidade, a localização inequívoca do conteúdo a ser removido – isto é, a URL específica do conteúdo reputado infringente”, como consta na reportagem da CNN sobre o caso Monark.

A plataforma também solicitava que Moraes reconsiderasse a decisão ou que enviasse o caso para apreciação do plenário do STF. Os argumentos usados pelas outras plataformas envolvidas são praticamente iguais. O Discord alega que a ordem de bloqueio na plataforma atingiria um servidor com uma comunidade de quase 1.500 membros, e que esses integrantes “não se confundem com a pessoa do influenciador Monark, os quais, ao que tudo indica, utilizavam esse servidor de forma lícita, no exercício de suas garantias individuais, para o compartilhamento de conteúdo e conversas sobre assuntos diversos”, ou seja, o coletivo não deve sofrer pelas falas de um indivíduo. Será mesmo?

“Não há nos autos qualquer indicação de que a pessoa alvo da investigação figure entre os membros do servidor ou mesmo de que haja conteúdo ilícito no canal”, continua a defesa do Discord. Por fim, além do bloqueio dos perfis de Monark, Moraes determinou também que ele se abstenha de divulgar fake news sobre o STF e o TSE, e uma multa em caso de descumprimento de R$ 10 mil por dia, tanto para as plataformas, quanto para ele.

A pior parte é que em recurso ao ministro, “o Twitter disse que a decisão de Moraes pode representar violação à Constituição Federal, dada a possibilidade de caracterizar censura de conteúdo lícito nas centenas de postagens de Monark na plataforma, além de possível censura prévia de conteúdo futuro lícito, não necessariamente vinculado ao objeto do inquérito em curso”, segundo reportagem da CNN.

Para mim, um dos aspectos mais preocupantes é exatamente esse uso político da nova interpretação. Como alertam os próprios autores do Marco Civil, há risco de que figuras públicas passem a usar alegações vagas, como “ofensa à honra”, para exigir a remoção de conteúdos jornalísticos sem necessidade de ordem judicial. O que impede que um político tente tirar do ar uma matéria incômoda? Esse cenário fragilizaria o jornalismo e feriria diretamente o direito à informação. Mas também abre espaço para prerrogativas como o caso Monark, em que há uma clara tentativa de subversão dos mecanismos que deveriam proteger a informação dentro da internet. 

É fundamental que medidas contra desinformação e discursos de ódio sejam tomadas com responsabilidade, respeitando o devido processo legal e os direitos individuais. A regulação da internet é necessária e urgente, especialmente diante do crescimento de grupos que usam as redes para propagar discursos de ódio, desinformação e violência, como ficou evidente em episódios trágicos, incluindo crimes orquestrados por comunidades online. O desafio é garantir que essa regulação ocorra de forma democrática, transparente e participativa, como foi o processo de construção do Marco Civil, que durou sete anos e envolveu ampla consulta pública.

O STF tem um papel importante na interpretação das leis, mas a elaboração de normas sobre responsabilidade de plataformas deve partir do Legislativo, instância legítima para representar a vontade popular. A concentração de decisões sensíveis em um único poder, ainda que motivada pela omissão de outro, pode gerar desequilíbrios institucionais e insegurança jurídica. Ainda que o protagonismo do STF tenha sido decisivo para proteger a democracia em momentos críticos (como nas eleições de 2022), é essencial que essa atuação seja pontual e respeite os limites constitucionais. 

A resposta à desinformação e aos abusos nas redes sociais precisa envolver o Congresso Nacional, a sociedade civil e sobretudo especialistas. Em 2021, tivemos o emblemático caso de uma medida provisória (1.068/2021) assinada pelo então presidente Jair Bolsonaro, que suscitou uma manifestação contrária da Procuradoria-Geral da República (PGR), sobre alterações no Marco Civil da Internet. A justificativa da MP? O governo alegou que a intenção era reforçar direitos e garantias dos usuários da rede e combater a “remoção arbitrária e imotivada de contas, perfis e conteúdos por provedores”, segundo matéria da CNN. A oposição e entidades da sociedade civil criticaram e questionaram a iniciativa do governo veementemente, e até o então procurador-geral da República Augusto Aras apontou a alteração como “repentina” e abrupta, pois não houve tempo para análise do mérito da adesão desta medida. 

Violência de gênero

Essa preocupação se soma a um cenário ainda mais preocupante para o exercício do jornalismo no Brasil. Em 2023, foram registrados 181 casos de violência contra jornalistas, segundo a Federação Nacional dos Jornalistas (Fenaj), número que, mesmo inferior aos anos anteriores, ainda é expressivo. As jornalistas mulheres, em especial, continuam sendo alvo de ataques constantes, como no caso recente de Fabiana Tostes, alvo de violência política em Vitória (ES). O Marco Civil pode e deve ser aprimorado para enfrentar questões como discursos de ódio, violência de gênero e racismo online, e é importante frisar que esses desafios não anulam a importância de preservar as garantias que ele oferece à liberdade de imprensa e à segurança jurídica de quem informa.

Em matéria para o Migalhas, Laura Porto julga que na era da “hiperdigitalização” o artigo 19 se torna obsoleto à lógica atual, ao condicionar a responsabilização das plataformas apenas aos casos em que houver o descumprimento de ordem judicial. Ou seja, o modelo atual, baseado no princípio da neutralidade, não dá conta dos desafios contemporâneos, como a disseminação de desinformação, discurso de ódio e riscos à integridade democrática. A crescente influência das plataformas exigiria uma regulação mais robusta e transparente, com responsabilidades proporcionais ao seu poder. Modelos internacionais como o Digital Services Act (DSA) da União Europeia e o NetzDG da Alemanha demonstram como é possível equilibrar a liberdade de expressão com responsabilidade social. No Brasil, além do julgamento da constitucionalidade do artigo 19 pelo STF, a Comissão de Reforma do Código Civil propõe a criação de um capítulo sobre o “Direito ao Ambiente Digital Transparente e Seguro”, com obrigações específicas para as plataformas, especialmente as de amplo alcance como o Twitter/X, Youtube, Instagram e Facebook. 

Um outro exemplo dessa obsolescência é o caso de difamação contra a vereadora Marielle Franco, assassinada junto com o motorista Anderson Gomes em 2018. “A morte física não foi suficiente, era necessário matar também a sua memória e honra. E foi assim que deu-se início à tentativa de assassinar de novo Marielle, ao se atacar sua imagem e memória”, analisam as autoras Clara Becker e Gabriela de Almeida Pereira em coluna para o Metrópoles. A partir do texto, começamos a entender o processo de disseminação de fake news que tentava ligá-la ao tráfico de drogas como forma de justificar a brutalidade do seu assassinato. Segundo a polícia, os mandantes e autores do crime foram encontrados, mas ainda não se sabe quem são os responsáveis pela difamação de Franco dentro da internet. 

E quando retornamos ao embate entre Musk e Alexandre de Moraes, entendemos então, que o debate sobre a regulação das redes sociais reacendeu, principalmente quando o estadunidense crítica e mede forças quanto à restrição de perfis no X, enquanto Moraes responde adicionando Musk no inquérito das milícias digitais, afirmando que “as redes sociais não são terra de ninguém”. Para quem quiser saber mais, o Estadão produziu uma matéria sobre as brechas que existem atualmente na legislação quando o assunto é redes sociais, e o Núcleo Jornalismo traz notícias sobre ocorrências e exemplos que demonstram o porquê devemos nos preocupar com a regulação das redes, vale a pena ler sobre!

Apesar de haver o Marco Civil da Internet e a Lei Geral de Proteção dos Dados, para o especialista em Direito Digital e coordenador do curso de Direito da ESPM, Marcelo Crespo, a principal dificuldade para regulamentar as redes, atualmente, é o lobby feito pelas grandes plataformas. Na reportagem do Estadão, ele reforçou que, em questões sobre quais conteúdos devem ser retirados do ar, por exemplo, a maioria das plataformas segue seus próprios parâmetros e políticas. Quando pensamos em quais ferramentas temos à disposição, encontramos medidas que envolvem avaliações de risco, canais acessíveis de denúncia e responsabilização ativa em casos de danos causados por conteúdos gerados por terceiros, que são propostas cabíveis e suficientes para algumas das problemáticas que enfrentamos nos ambientes da internet, mas não para todas. 

Essas mudanças visam um novo modelo de governança digital, que reconhece o poder das plataformas e exige delas condutas compatíveis com a proteção dos direitos fundamentais, promovendo um ambiente digital mais seguro, ético e democrático. Em resumo, o julgamento do artigo 19 pelo STF pode marcar um ponto de virada: ou reafirmamos o compromisso com a liberdade de imprensa e com o devido processo legal e promovemos novos debates a partir disso, ou corremos o risco de abrir espaço para práticas que silenciem o debate público em nome da conveniência e do usufruto das big techs. A escolha que fizermos agora terá impacto direto sobre o futuro do jornalismo, da democracia e do acesso à informação no Brasil.

Por Sophia Helena Ribeiro

Deixe um comentário