Remoção de conteúdos na internet começa a ser julgada pelo STF
O julgamento iniciado nesta quarta poderá repercutir na responsabilidade das plataformas digitais que operam no Brasil. Nesta quinta-feira, 28 de novembro, os ministros Dias Toffoli e Luiz Fux, relatores das ações, apresentarão seus votos.
Por Humberto Azevedo
O Supremo Tribunal Federal (STF) começou a julgar nesta quarta-feira, 27 de novembro, duas ações que tratam da responsabilidade civil das plataformas da internet por conteúdos de terceiros e da possibilidade de remoção de conteúdos ofensivos ou que incitem ódio a partir de notificação extrajudicial, ou seja, sem determinação judicial. Os julgamentos acontecem a partir de ações impetradas na Suprema Corte sobre dispositivos estabelecidos na legislação do Marco Civil da Internet.
Na sessão desta tarde, os relatores das ações, os ministros Dias Toffoli e Luiz Fux, fizeram um resumo de seus relatórios e foram ouvidos argumentos de partes e interessados admitidos nas ações. O julgamento será retomado nesta quinta-feira, 28 de novembro, com os argumentos dos demais interessados e os votos dos relatores.
Na ação relatada pelo ministro Toffoli, a discussão é sobre a validade do artigo 19 do Marco Civil da Internet, que exige ordem judicial prévia e específica de exclusão de conteúdo para a responsabilização civil de provedores, websites e gestores de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. Nele, o Facebook Serviços Online do Brasil Ltda. questiona decisão da justiça paulista que determinou a exclusão de um perfil falso da rede social.
Já a ação relatada pelo ministro Fux, trata-se da discussão se a empresa que hospeda sites na internet tem o dever de fiscalizar o conteúdo publicado e de retirá-los do ar quando for considerado ofensivo, sem necessidade de intervenção do Judiciário. Neste caso, o Google Brasil Internet S.A. contesta decisão que o condenou a pagar indenização por danos morais por não excluir do Orkut uma comunidade criada para ofender uma pessoa.
ARGUMENTAÇÃO FACEBOOK
O representante do Facebook, José Rollemberg Neto, defendeu a validade da regra do marco civil que exige decisão judicial para exclusão de conteúdo. Segundo ele, isso reduz o risco de censura por empresas privadas, e sua invalidação criaria um ambiente propício ao controle massivo de conteúdos. Ele considera que, caso isso ocorra, até o jornalismo profissional seria afetado, pois poderia ter conteúdos removidos sob alegação de serem ofensivos, apenas por desagradar terceiros.
ARGUMENTAÇÃO GOOGLE
Na mesma linha, em nome do Google, Eduardo Mendonça afirmou que as regras do Marco Civil são compatíveis com a Constituição e que não seria positivo criar condições para remoção de conteúdos sem mediação judicial. Disse ainda que, em 2023, o YouTube, que pertence à empresa, removeu sem ordem judicial mais de 1,6 milhão de vídeos que violavam as políticas da empresa e, no mesmo período, recebeu apenas 614 ordens judiciais.
MEDIDAS DE MODERAÇÃO
Para Daniel Dias, representante da Associação Brasileira de Centros de Inclusão Digital (ABCID), a exigência de ordem judicial para a responsabilização das plataformas não é adequada para proteger a liberdade de expressão. Ele defendeu a adoção de medidas de moderação mais efetivas para preservar direitos fundamentais como o da privacidade. Segundo ele, os números apresentados pelo Google demonstram a capacidade de fiscalização e moderação, mas também a dificuldade das pessoas de pedir a remoção de conteúdos pela via judicial.
Também apresentaram seus argumentos, na qualidade de terceiros interessados (amici curiae), o Instituto Brasileiro de Direito Civil, o Instituto Alana, o Instituto dos Advogados de São Paulo, o Ministério Público do Estado de São Paulo, a Confederação Israelita do Brasil e o Núcleo de Informações e Coordenação do Ponto BR (Nic.br).