O Marco Civil da Internet e a Responsabilidade das Big Techs: Uma Nova Era?
Introdução: O que está em jogo?
Na quarta-feira, 25 de outubro, o Supremo Tribunal Federal (STF) se reunirá para discutir um tema crucial: o Marco Civil da Internet. No centro da debate está a discussão sobre a responsabilização das grandes plataformas digitais em relação a conteúdos irregulares e ilegais. Especificamente, o artigo 19 da Lei 12.965 de 2014 será analisado, questionando como empresas como Google, YouTube, Meta e TikTok devem agir em face de tais conteúdos.
O artigo em questão afirma que provedores de internet só podem ser responsabilizados judicialmente por danos decorrentes de conteúdos gerados por terceiros se, após uma ordem judicial clara, não tomarem as medidas necessárias para remover o conteúdo indicado. Essa regra é fundamental para proteger a liberdade de expressão, mas agora enfrenta novas propostas de alteração.
O que diz o artigo 19?
Vamos explorar o que exatamente estabelece o artigo 19 do Marco Civil da Internet:
- Liberdade de Expressão: O texto busca garantir que as plataformas não sejam responsabilizadas de forma imediata por conteúdos de usuários, promovendo um ambiente menos censurável.
- Responsabilidade Condicionada: As plataformas só devem agir perante ordem judicial e dentro de limites técnicos que respeitem suas capacidades operacionais.
- Exceções Importantes: O debate gira em torno da inclusão de exceções mais rigorosas para crimes graves, como exploração infantil, terrorismo e outros crimes que afetam seriamente a sociedade.
Esses pontos colocam um balança o papel das big techs na regulação do conteúdo que circula em suas plataformas.
Uma Visão de Fábio Coelho, CEO do Google Brasil
Em entrevista recente à Folha de S.Paulo, Fábio Coelho, CEO do Google Brasil, comentou sobre a necessidade de incluir definições mais claras sobre crimes graves nas exceções do artigo. No entanto, ele destacou um ponto crucial: as modificações não devem ser tão amplas a ponto de gerar "consequências indesejadas".
O que poderia acontecer?
Coelho levantou preocupações sobre como a ampla atualização do artigo 19 poderia levar a um exagero na remoção de conteúdos. Ele argumentou:
- Remoções Excessivas: "Dependendo de como for essa atualização, poderemos ser menos envolvidos nas discussões que ocorrem no Brasil e, consequentemente, remover mais conteúdos."
- Interesse Público: Muitas vezes, conteúdos que consideramos relevantes ou de interesse público poderiam ser removidos preventivamente, o que comprometeria o debate democrático.
Essas considerações levantam um importante dilema sobre como as plataformas devem agir sem sufocar a liberdade de expressão.
O Impacto do Marco Civil da Internet
A evolução do Marco Civil da Internet tem consequências diretas sobre as interações nas redes sociais e o que é considerado legal ou ilegal. No dia 11 de junho de 2025, uma decisão do STF já havia formado uma maioria para alterar o Artigo 19, responsabilizando assim as redes sociais por conteúdos ilegais divulgados por usuários.
O que muda com a nova proposta?
Até agora, as plataformas não eram responsabilizadas antes de uma ordem judicial, mas com a nova forma de interpretação, a regulamentação sobre como devem lidar com conteúdos ilícitos torna-se mais complexa e onerosa.
- Responsabilidade Civil: As plataformas agora poderiam ser responsabilizadas não apenas por conteúdos que violam direitos, mas qualquer coisa que infrinja a legislação vigente.
- Conteúdos Ilegais: Exemplos de conteúdos que se tornariam automaticamente ilegais incluem discursos de ódio, desinformação, e qualquer material que prejudique a integridade das eleições.
Camila Camargo, especialista em direito digital, explica: "Qualquer conteúdo que viole a legislação vigente é, objetivamente, ilegal." Isso implica que as plataformas precisam ser mais cuidadosas e atentas, criando um ambiente digital mais seguro.
Reflexões Finais: Um Novo Horizonte Para a Internet?
À medida que o STF analisa estas questões prementes, a sociedade deve refletir sobre o equilíbrio necessário entre a liberdade de expressão e a segurança no ambiente digital. Aqui estão algumas considerações finais:
- Discussão Necessária: É essencial que haja um diálogo aberto sobre como garantir um espaço digital seguro sem comprometer a liberdade de expressão.
- Responsabilidade das Plataformas: Enquanto as big techs precisam ser responsáveis pelo conteúdo, isso não deve ser um fardo tão pesado que leve à censura excessiva.
- Participação Cidadã: Como cidadãos, devemos estar atentos a essas mudanças e exigir transparência e responsabilidade na forma como as plataformas gerenciam o conteúdo.
As decisões que estão sendo tomadas agora podem moldar o futuro da Internet no Brasil. Que tipo de espaço digital queremos construir para as próximas gerações? As vozes e opiniões da sociedade devem ser parte essencial dessa conversa.
Convidamos você a compartilhar suas opiniões sobre o assunto. Como você vê a necessidade de responsabilidade das plataformas versus a liberdade de expressão? Deixe seus comentários e faça parte dessa discussão fundamental!