Publications/Articles

Musk, STF e uma polêmica-mãe: qual a responsabilidade das plataformas digitais?

arrow_back

Voltar

arrow_back

Voltar

Imagem do Membro

Maria Porto

Imagem do Membro

Maria Júlia Salzano

Uma polêmica de dimensões mundiais envolveu recentemente as figuras públicas de Elon Musk, dono da plataforma “X” - o antigo Twitter - e Alexandre de Moraes, Ministro do STF, como resultado das restrições impostas pelo Ministro a usuários do X investigados por conteúdos ilegítimos e articulações antidemocráticas, as quais Musk ameaça descumprir. 

Esse acontecimento é reflexo de um debate mais abrangente e complexo: a regulação das plataformas digitais cujo modelo de negócio consiste na circulação de conteúdo. É certo que as plataformas que atuam no Brasil devem estar sujeitas às leis nacionais, mas qual o cenário atual? 

O Brasil conta com o Marco Civil da Internet (Lei nº 12.965/2014), legislação que foi um grande ‘marco’ ao trazer previsões especificas acerca das responsabilidades das plataformas digitais, tendo sido celebrada como importante mecanismo para garantir o exercício da liberdade de expressão e o acesso à informação na rede. Isso, pois, as plataformas não teriam responsabilidade pelos conteúdos publicados pelos usuários e só deveriam remover conteúdos ilegítimos mediante um exame e ordem judicial, evitando remoções infundadas. 

No entanto, o que era revolucionário em 2014, chega em 2024 um pouco ultrapassado, já que nos últimos anos houve uma grande transformação da forma que consumimos a internet, tanto em razão das novas aplicações de tecnologia disponíveis, quanto da amplificação da sua relevância na sociedade, em razão da velocidade e capilaridade do alcance de conteúdos publicados em redes sociais. Nesse cenário, vimos um crescente uso ilegítimo das plataformas, como para a propagação de fake news, disseminação de discursos de ódio e condutas antidemocráticas. 

Muitos países estão discutindo soluções para o enfrentamento dos complexos problemas relacionados ao uso de redes e, no Brasil, surgiram diversas propostas regulatórias que se consolidaram no Projeto de Lei 2630/2020 (popularmente chamado de “PL das Fake News”). 

Na esteira dos ventos da aprovação do Digital Services Act (DAS) na União Europeia, o PL brasileiro, entre outros temas, busca regular o funcionamento das plataformas e prever maior responsabilidade quanto à moderação dos conteúdos publicados por usuários das plataformas, de modo a ampliar a proteção aos usuários e garantir transparência por parte das empresas. 

O PL teve uma tramitação apressada, foi alvo de crítica por todos os lados e passou por diversas transformações por meio de emendas parlamentares e da contribuição ativa da sociedade civil e especialistas. Contudo, ainda está longe de ser um consenso entre os diferentes atores, pois o tema da moderação de conteúdo nas redes demanda uma grande equalização de direitos e deveres. 

Um ponto relevante do PL é o dever das plataformas apresentarem seus termos de uso de forma clara e objetiva, esclarecendo aos usuários o que é ou não proibido na rede. Também deverão notificar os usuários em caso de conteúdos potencialmente ilegais e, havendo a moderação, explicar como as decisões foram tomadas e quais os caminhos para solicitar que sejam revisadas. Ainda, em situações mais sensíveis, as plataformas deverão atuar de forma mais rápida para prevenir e conter as ações. 

Após reformulação, o PL teve sua urgência aprovada em abril de 2023 e aguarda ir a plenário na Câmara dos Deputados. Enquanto a aprovação da regulação específica não acontece, continuaremos nos deparando com embates entre decisões judiciais sobre moderação de conteúdos e as plataformas digitais.