Ministros do Supremo Tribunal Federal (STF) e de Estado se revezaram nesta terça-feira, 28, em audiência pública na defesa da regulação das redes sociais, com algum grau de responsabilização das empresas que as ofertam ao público.
De outro lado, advogados de bigtechs como Google e Meta – donas de redes e aplicativos como YouTube, Instagram, Facebook e WhatsApp – contestaram a iniciativa, argumentando que isso não garantirá uma internet mais segura no Brasil. Eles defenderam que um ambiente digital mais saudável poderá ser alcançado com o aprimoramento da autorregulação já existente.
O tema está sendo debatido em audiência pública convocada pelos ministros Dias Toffoli e Luiz Fux, que são relatores de dois recursos que tratam do uso abusivo das redes sociais e pedem a remoção de conteúdos. “Esse é um tema de interesse de toda a sociedade”, afirmou Fux em sua fala de abertura.
A questão de fundo dos processos é saber se trechos do Marco Civil da Internet estão de acordo com a Constituição, em especial o Artigo 19 da lei, que trata da remoção de conteúdo mediante ordem judicial. A audiência pública começou nesta terça pela manhã e segue até esta quarta-feira, 29.
Na prática, contudo, as discussões englobam também os projetos de lei que tramitam no Congresso para regular as redes sociais e a proteção da democracia no ambiente digital. Tais iniciativas, principalmente o chamado Projeto de Lei (PL) das Fake News, ganharam impulso após os atos golpistas de 8 de janeiro, em Brasília.
“Creio que é muito importante que o Congresso Nacional, de forma célere, delibere, para que tenhamos parâmetros legais para a atividade de plataformas digitais no Brasil, inspirados nas boas experiências internacionais”, disse o deputado Orlando Silva (PCdoB-SP), relator do projeto de lei, na abertura da audiência.
Além de ministros do Supremo e de governo, bem como os representantes das plataformas, que também falaram durante a abertura dos trabalhos, está prevista a participação ainda de representantes do Ministério Público, da Associação Nacional de Jornais (ANJ), da Associação Brasileira de Jornalismo Investigativo (Abraji) e da Ordem dos Advogados do Brasil (OAB).
Ministros do Supremo
Uma das falas mais incisivas durante a manhã foi a do ministro do Supremo Alexandre de Moraes, que é também presidente do Tribunal Superior Eleitoral (TSE) e trabalhou com proximidade junto às plataformas de redes sociais para garantir a segurança das eleições gerais de 2022.
“Não é possível continuarmos achando que as redes sociais são terra de ninguém, sem responsabilização alguma. Não é possível que só por serem instrumentos, depositárias das comunicações, [as plataformas] não tenham nenhuma responsabilidade”, afirmou o ministro Alexandre de Moraes. “O modelo atual está falido”, completou.
Moraes lembrou dos atentados do 8 de janeiro contra as sedes do Três Poderes, em Brasília, que teriam sido coordenados via redes sociais, e disse que foram um resultado da falência de tal modelo. O ministro Luís Roberto Barroso também disse haver consenso a respeito dos problemas das redes, que nos moldes atuais ameaçam democracias e a dignidade de indivíduos, tornando-se “instrumentos do extremismo político”.
“Todo o mundo democrático está debatendo como lidar com este problema sem afetar com a liberdade de expressão”, disse Barroso.
Gilmar Mendes, que já vem defendendo publicamente a responsabilização das redes sociais, disse que episódios como os de 8 de janeiro “de alguma forma guardam conexão direta com esse uso abusivo da internet”. “É claro que o sistema jurídico precisa encontrar meios e modos de lidar com essa temática”, acrescentou.
Ministros de governo
Em sua vez, o ministro da Justiça e Segurança Pública, Flávio Dino, disse que o governo tem posição “opinativa” no assunto, uma vez que caberá ao Judiciário e ao Legislativo deliberar sobre o tema, mas que muito tem a contribuir a partir de debates internos e que não se furtará em opinar. “Somos pagos para isso”, afirmou.
Dino abriu seu raciocínio defendendo limites às manifestações nas redes sociais e que isso não é um ataque a direitos fundamentais. “A liberdade de expressão não está em risco quando se regula. Ao contrário, defender a liberdade de expressão é regulá-la”, afirmou ele. Por esse motivo, “não há nada de exótico, ou de heterodoxo ou de pecaminoso, neste tribunal ou no Congresso, em discutir regulação do conteúdo da liberdade de expressão”, acrescentou o ministro.
Ele disse que o governo possui três frentes de debate internamente, com sugestões de regras ligadas ao direito do consumidor, à responsabilização civil “ponderada e proporcional” das plataformas de redes sociais que permitam abusos, e também questões relativas à transparência e auditabilidade de algoritmos.
“Não tratamos apenas de modelo de negócios. Nós estamos falando do controle das subjetividades na sociedade, nós estamos falando do controle do espaço publico, e do controle do discurso politico da sociedade, para muito além de hábitos de consumo”, disse Dino.
O ministro-chefe da Advocacia-Geral da União (AGU), Jorge Messias, fez coro com Dino. “O debate sobre o regime de responsabilidades dos provedores de aplicativos ou ferramentas de internet está absolutamente na ordem do dia. E há uma grande convergência nesse sentido”, destacou.
O ministro dos Direitos Humanos e da Cidadania, Silvio Almeida, manifestou o mesmo entendimento e destacou ser necessário um trabalho de reorientação e educação midiática em defesa da democracia.
”O problema é muito mais complexo do que simplesmente estabelecer regulação ou balizas burocrático-institucionais, nós sabemos disso”, frisou. Ele acrescentou, contudo, ser necessário “assumir essa tarefa de colocar um freio institucional [no abuso das redes], que permita uma reorientação cultural e ideológica de toda a sociedade”.
Dino e Almeida mencionaram também o ataque ocorrido nessa segunda-feira, 27, em uma escola na zona oeste de São Paulo, onde um aluno de 13 anos esfaqueou e matou uma professora de 71 anos, além de ferir outros docentes e colegas. Eles ligaram o acontecimento à liberdade encontrada nas redes para a disseminação de discursos de ódio.
Plataformas
Em nome da multinacional de tecnologia Meta – dona de Instagram, Facebook e WhatsApp – o advogado Rodrigo Ruf Martins argumentou ser falsa a ideia de que uma maior responsabilização civil das plataformas vá resultar num ambiente mais seguro para a internet brasileira.
Ele argumentou que os termos de uso das redes sociais da empresa, por exemplo, já preveem a remoção de conteúdos ligados a crimes como pedofilia e violação de direitos autorais e trouxe números segundo os quais a empresa promove a retirada voluntária de milhões de publicações de suas plataformas, sem que seja necessária nenhuma atuação do Estado.
O defensor também mencionou a parceria da Meta com o TSE, que resultou na remoção de publicações nocivas ao processo eleitoral, entre outras medidas, e afirmou, com base nos números apresentados, “que não houve omissão da empresa no combate aos conteúdos violadores durante as eleições de 2022 e também no 8 de janeiro”.
“É preciso deixar muito claro que a integridade é uma parte extremamente relevante do modelo de negócios. Afinal os anunciantes jamais buscariam ligar suas marcas a conteúdos indesejados ou investir em plataformas que permitissem essa espécie de vale-tudo online dentro delas”, afirmou Ruf Martins.
Ele citou quais seriam algumas das maiores ameaças à internet brasileira, na visão da Meta: a edição de medidas executivas que restrinjam o poder de moderação das plataformas, em nome da liberdade de expressão; projetos legislativos que preveem uma espécie de imunidade para autoridades nas redes; o acúmulo de ações judiciais que pedem a liberação de conteúdos moderados pelas plataformas.
O advogado-sênior do Google, Guilherme Cardoso Sanches, também ressaltou que a empresa remove milhões de conteúdos anualmente de suas plataformas, sem que para isso seja preciso nenhuma legislação adicional e decisão judicial. “Só no Brasil, em 2022, o YouTube removeu mais de 1 milhão de vídeos que violaram políticas sobre desinformação, discurso de ódio, violência, assédio, segurança infantil, entre outros”, pontuou.
“Responsabilizar as plataformas como se elas próprias fossem responsáveis pelos conteúdos que elas hospedam levaria a um dever genérico de monitoramento de todo o conteúdo produzido pelas pessoas, desnaturando completamente o ambiente plural da internet”, disse o defensor.
Entre outros argumentos, Cardoso Sanches acrescentou que a atuação do Judiciário se faz necessária em casos limítrofes, em que haja dúvida a respeito da legalidade do conteúdo. Para o Google, criar leis e regras adicionais levará, na prática, não a uma maior celeridade na remoção de conteúdo, pelo contrário, pois restringirá a liberdade de autorregulação das plataformas.
“Além de ser o certo a fazer, agir responsavelmente faz bem para os negócios“, afirmou o advogado. “Conteúdos ilícitos e danosos não nos trazem reais benefícios econômicos. Na verdade sabemos que esse tipo de conteúdo corrói a confiança das pessoas, do público e dos anunciantes. Por conta disso que nós dedicamos tempo e recursos consideráveis para minimizar esse tipo de conteúdo em nossas plataformas”, acrescentou.