O projeto de lei 2630/2020, conhecido como PL das Fake News, propõe regras para regulamentar e aumentar a transparência das plataformas digitais – que incluem serviços de mensagens, mecanismos de busca e redes sociais. Esse movimento de cobrar mais responsabilidade das empresas de tecnologia acontece em vários países.
O relator do projeto na Câmara dos Deputados, Orlando Silva (PCdoB-SP), cita diversas vezes em seu relatório o Digital Services Act (DSA) – Lei de Serviços Digitais, em inglês – aprovado no fim do ano passado pela União Europeia.
A legislação é considerada uma das mais avançadas em matéria de regulamentação de serviços digitais, e faz parte de um movimento de unificar o mercado digital que já existe há anos na Europa.
A Lei Geral de Proteção de Dados Pessoais (LGPD), aprovada em 2018 e vigente desde 2020 aqui no Brasil, por exemplo, também foi inspirada em outro conjunto de leis europeias.
Para o coordenador de relações institucionais do Instituto Vero e membro da Coalizão Direitos na Rede, Victor Durigan, o diferencial do DSA é que ele trabalha “de forma estrutural”, mirando principalmente questões de transparência dos processos de moderação de conteúdo e dos riscos sistêmicos.
“[O DSA] foca na estrutura da plataforma, no design do serviço, e não no conteúdo”, explica.
O diretor da Data Privacy Brasil, Rafael Zanatta, acrescenta outro ponto a ser destacado no Digital Services Act: a regulação assimétrica. As obrigações das plataformas digitais mudam conforme seu tamanho, de forma a incentivar a competitividade entre as empresas.
Plataformas consideradas de maior dimensão – que são utilizadas por pelo menos 45 milhões de usuários, o que equivale a 10% da população da União Europeia – têm obrigações específicas para garantir uma melhor gestão de riscos.
Confira os pontos principais do Digital Services Act:
- Combater conteúdo ilegal nas plataformas, inclusive mercadorias e serviços ilícitos. A legislação impõe novos mecanismos que permitem que os usuários sinalizem conteúdo ilegal e que as plataformas possam contar com a indicação de “usuários de confiança” – como entidades especializadas – sobre o que precisa ser removido;
- Verificar se comerciantes e serviços oferecidos on-line são de confiança. As plataformas têm a obrigação de checar aleatoriamente se os produtos e serviços oferecidos por terceiros estão nos conformes;
- Garantir que os usuários sejam notificados em caso de restrição ou remoção dos seus conteúdos e que eles possam contestar as decisões de moderação das plataformas;
- Aumentar a transparência das plataformas digitais. Informações sobre os termos e condições de uso e sobre os algoritmos utilizados para recomendar conteúdos e produtos aos usuários devem ser mais claras;
- Aumentar o nível de privacidade, segurança e proteção de menores de idade em plataformas digitais. Além de proibir publicidade direcionada para menores;
- Diminuir riscos como desinformação, manipulação eleitoral e incentivo à violência em plataformas de maior dimensão. As plataformas com muitos usuários devem adotar medidas, que seriam supervisionadas por auditorias independentes, de gestão desses riscos sem ferir a liberdade de expressão;
- Criar novos mecanismos de resposta em situação de crise – como, por exemplo, uma pandemia, ou uma guerra;
- Proibir publicidade direcionada on-line por meio da definição de perfis e categorias de dados pessoais – como etnia, opiniões políticas ou orientação sexual. As plataformas devem aumentar a transparência em relação a tudo que for publicidade direta ou feita por influenciadores;
- Proibir interfaces que levem o usuário a concordar com termos que não estão claros;
- Permitir o acesso dos principais dados das plataformas digitais a investigadores;
- Garantir que os usuários tenham o direito de apresentar queixas às plataformas e às autoridades nacionais ou de tentar obter indenização por descumprimento de regras;
- Estabelecer uma estrutura de supervisão única das plataformas digitais de maior dimensão na União Europeia – uma Comissão que atua junto aos reguladores nacionais de cada país e tem poderes de investigação e possibilidade de aplicar sanções de até 6% da receita global das empresas.
Inspiração para o PL das Fake News
Ambos os especialistas pontuam à CNN que o PL das Fake News tem forte influência do DSA em relação à prevenção de riscos sistêmicos. Ou seja, as plataformas têm que definir protocolos de ação para diminuir o risco do serviço que oferecem.
“Se a plataforma está enxergando que existe um movimento crescente de severidade e de periculosidade, com potencial de dano aos direitos fundamentais de um grupo específico, isso tem que ser identificado como um risco sistêmico. E esse risco sistêmico tem que ser endereçado de forma profissionalizada”, explica Zanatta.
Zanatta e Durigan também destacam o compromisso com a transparência como um ponto em comum dos projetos.
As plataformas passam a ter que divulgar informações básicas as quais não se tem acesso atualmente, como o número de usuários, quantas contas são removidas por ano, quais os critérios do algoritmo que faz com que publicações viralizem.
Traçando um paralelo com a questão ambiental, Rafael Zanatta lembra de quando as empresas começaram a ser obrigadas a divulgar informação sobre seus processos poluentes. “Isso muda o debate público.”
Em contrapartida, o projeto de lei brasileiro tem um foco menor sobre a questão econômica e de competitividade entre as empresas de tecnologia.
Resistência das Big Techs
Assim como estamos vendo no Brasil, as grandes empresas de tecnologia – também chamadas de Big Techs – ofereceram grande resistência quando o projeto de lei foi aprovado na União Europeia.
As empresas pontuaram os mesmos entraves, como a ameaça à liberdade de opinião, a impossibilidade de operar de forma gratuita, a dificuldade de conciliar transparência e sigilo comercial e, inclusive, a ameaça de parar de operar na região.
“Mas eu acho que existe um nível de respeito maior às institucionalidades do Norte global por parte das empresas do que do Sul global”, pontua Durigan.
Zanatta também concorda que o contexto político do país torna as coisas mais complicadas aqui. “Nossos processos políticos nos últimos anos, tanto a eleição do Bolsonaro, quanto a eleição do Lula, como o sentimento mais radicalizado depois de junho de 2013, que a gente tem vivido nos últimos 10 anos, eles são muito fortemente pautados e mediados pelas plataformas”, disse.
“Acho que aqui a sensibilidade da discussão é maior do que no território europeu.”
As plataformas digitais têm até fevereiro de 2024 para se adequar às regras impostas pelo DSA na Europa. E os especialistas acreditam que isso pode diminuir a resistência das empresas aqui no Brasil.
Zanatta explica que as empresas já estão sendo obrigadas a se adequar em vários países onde a discussão regulatória está avançando, na União Europeia, no Reino Unido, na Austrália.
“A partir do momento que o mundo vê que as empresas vão ter que se adaptar a uma lista robusta de obrigações fica muito mais fácil falar: ‘Na Europa você já vai fazer isso, por que aqui no Brasil você não vai fazer?’. O argumento das plataformas de que não dá para fazer cai por terra”, explica Durigan. “Ajuda com certeza, não só no Brasil, mas em outros lugares também.”
Este conteúdo foi originalmente publicado em Lei europeia que inspira PL das Fake News foca na transparência, não no conteúdo; entenda no site CNN Brasil.