Carregando...

Publicações

Moderando em causa própria

09 Março 2023/ Notícias & Artigos/

Empresas de tecnologia ganham ao adotar modelos justos e transparentes de solução de disputas e de moderação de conteúdo

 

Eduardo Felipe Matias

 

Anos atrás, Mark Zuckerberg admitiu: “Em muitos aspectos, o Facebook se assemelha mais a um governo do que a uma companhia tradicional. Nós temos essa grande comunidade de pessoas e, mais do que outras empresas de tecnologia, estamos realmente definindo políticas.” A constatação, com o tempo, foi se tornando ainda mais evidente, à medida que a plataforma ampliava cada vez mais as regras aplicáveis a seus hoje quase 3 bilhões de usuários.

A rede social da Meta, dona também do WhatsApp e do Instagram, necessita, diariamente, decidir sobre temas como privacidade e liberdade de expressão. E se o Facebook se parece com um Estado-nação, seu fundador não poderia deixar de reconhecer que, estando muitos de seus súditos inseridos em sociedades democráticas, uma postura absolutista (“Le Meta c’est moi”) não iria colar, sendo preciso, por isso, criar mecanismos que confiram legitimidade às suas decisões.

O que vale para um conglomerado gigantesco como a Meta se aplica a outras empresas, de todos os tipos e tamanhos, que se proponham a mediar a relação entre seus clientes. Marketplaces, como a Amazon, assumem a função de juiz em disputas entre compradores e vendedores. Aplicativos de transporte, como o Uber, fazem o mesmo entre motoristas e passageiros. Em cada uma dessas disputas, essas plataformas adotam resoluções que têm efeitos sobre a vida das pessoas envolvidas e, em casos extremos – banir um fornecedor de um aplicativo onde este realiza a maior parte de suas vendas, por exemplo –, podem representar uma sentença de morte para determinado negócio.

Mas a área onde essa intermediação tem provocado discussões mais acaloradas é a da moderação de conteúdo – processo pelo qual as plataformas resolvem o que será mantido em suas páginas e o que será removido. Se antes estas procuravam se eximir dessa responsabilidade, alegando serem meros veículos por meio dos quais os usuários se manifestavam livremente, hoje elas contam com algoritmos sofisticados que promovem, rebaixam ou barram certos posts, e com milhares de profissionais cuja função é controlar o que nelas é publicado.

O principal motivo dessa mudança de postura, além da pressão da sociedade para reverter a maré de desinformação resultante de anos de omissão, é econômico. Uma rede social que se transforme em um ambiente tóxico tende a afugentar usuários e anunciantes, o que é ruim para os negócios.

Porém, de nada adianta as empresas se esforçarem em moderar conteúdo se esse processo, em si, for igualmente fonte de controvérsias, gerando decisões vistas como pouco legítimas – o que não apenas reduz a satisfação de seus usuários, mas também os torna menos propensos a cooperar para que as regras estabelecidas sejam respeitadas, diminuindo a efetividade de sua governança.

Na prática, o que essas empresas podem fazer evitar que isso aconteça?

Primeiro, as políticas por elas adotadas devem ser públicas, redigidas de forma clara e acessível e, se possível, construídas de forma participativa. Os usuários precisam saber quais são os conteúdos proibidos, para entender as razões por trás da remoção de seus posts ou da suspensão de seus perfis. O fato de terem opinado sobre as regras a que estão submetidos, por sua vez, aumenta as chances de que aceitem as decisões das plataformas. E, para prestar contas sobre suas práticas, muitas dessas empresas divulgam “relatórios de transparência” periódicos detalhando os números relacionados a essa atividade, incluindo as ações tomadas a pedido de governos ou tribunais locais.

O sistema por meio do qual essas políticas são aplicadas precisa ser considerado justo. Para tanto, deve contar com o equivalente a um devido processo legal, incluindo o contraditório, amparado em procedimentos de apelação. Estudos comprovam que a fundamentação das decisões e a oportunidade de os envolvidos manifestarem seus pontos de vista aumentam a crença na legitimidade de um sistema. Este tem, ainda, que manter certa coerência, levando em consideração precedentes e criando uma espécie de jurisprudência – quem sabe, até, que seja tornada pública de forma anonimizada – o que garantiria certa previsibilidade. Por fim, este não pode ser moroso, pois justiça que tarda, falha.

A tarefa de suprimir conteúdos ilegais, vale lembrar, depende em grande parte de algoritmos – e não teria como ser diferente, já que, sem algum tipo de automação, seria humanamente impossível (literalmente) julgar o que fazer com os bilhões de posts publicados diariamente nessas plataformas. Para evitar que esses algoritmos sejam encarados como “caixas pretas”, reduzindo a confiança no sistema, estes devem ser compreensíveis e auditáveis.

Um último ponto a ser observado pelas empresas é que cada forma de moderação de conteúdo provoca uma percepção de legitimidade diferente. Em estudo divulgado no ano passado, Christina Pan e outros pesquisadores da Universidade Stanford avaliaram a legitimidade que usuários do Facebook nos EUA atribuíam a quatro modelos muito utilizados: equipes terceirizadas, algoritmos, júris digitais compostos de usuários e painéis de especialistas, concluindo que este último mecanismo – similar ao “Oversight Board” criado pelo Facebook – é percebido como o mais legítimo entre eles.

A percepção de legitimidade pode ser vital para empresas de tecnologia cujas atividades envolvam a mediação das relações entre seus consumidores ou usuários. Mais uma vez aqui, a motivação é econômica. O negócio de muitas plataformas depende de manter o engajamento daqueles que as utilizam e, ao atenderem as expectativas destes, tomando decisões de forma justa e equilibrada, elas evitam que essas pessoas migrem para concorrentes com regras mais claras e transparentes. Entender essa realidade e enxergar a autorregulação não como um ônus, mas como uma possível vantagem competitiva contribui, portanto, para que essas empresas não coloquem a sua existência em risco.

 

Artigo publicado originalmente na edição de março de 2023 da revista Época Negócios, disponível aqui: Moderando em causa própria | Na Fronteir@ | Época NEGÓCIOS (globo.com)

Eduardo Felipe Matias é autor dos livros A humanidade e suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti e coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley e Stanford, na California, e é sócio da área empresarial de  Elias, Matias Advogados e líder do Comitê de Startups da ABES.



Publicações relacionadas


Comentários/ 0


DEIXE SEU COMENTÁRIO

Por Advogado
Por data

RECEBA NOSSAS NEWSLETTERS