Decisões pouco fundamentadas são o maior problema da moderação de conteúdo nas redes sociais, aponta estudo

Brasil de Fato

Já teve uma postagem excluída ou sinalizada como inapropriada em alguma rede social e não entendeu o motivo? Pois é. Saiba que nos faltam informações não somente sobre como esse processo acontece, mas também sobre o histórico de decisões de moderação de conteúdo. Isto é, sobre os motivos para as intervenções das plataformas digitais sobre as publicações feitas por usuários em redes sociais. Essa lacuna não permite conhecer quais os principais problemas enfrentados pelos usuários em relação aos procedimentos dessa moderação.

O fato é que as empresas publicam relatórios de transparência, mas a maioria desses documentos apenas contabiliza números totais, como de conteúdos moderados, recursos de usuários e cumprimento de decisões judiciais. As situações concretas e os motivos das decisões que orientam a atuação das plataformas não são publicizadas.

Do que reclamam os usuários das redes sociais?

Buscando jogar luz sobre esses dados, nós do Instituto de Referência em Internet e Sociedade (IRIS) realizamos um estudo das principais queixas feitas por usuários do Facebook, Instagram, Twitter, TikTok e YouTube na plataforma Reclame Aqui, nacionalmente conhecida como um canal entre clientes e empresas para a resolução de problemas. Coletamos mais de mil reclamações no total, e analisamos a fundo 449 que identificamos como sendo de nosso interesse de pesquisa.

Dentre as reclamações que analisamos, 54,34% tratavam do procedimento de moderação em casos de remoção de postagens e suspensão/bloqueio de contas. Esse número aponta para o quanto a opacidade nesse processo contribui para a desconfiança e insatisfação dos usuários, e impacta negativamente a percepção pública sobre as plataformas.

Respostas automáticas que não explicam os porquês

Nesse universo, a fundamentação inadequada foi a principal razão de queixa, no total de 128. Ou seja: 52,46% das reclamações sobre moderação de conteúdo. Em outras palavras, existe uma série de reclamações de usuários decorrentes da falta de transparência e nitidez nos motivos apresentados pelas plataformas digitais ao moderarem conteúdo. Nessa categoria, encontram-se, por exemplo, casos de respostas automáticas que não dialogavam corretamente com os argumentos da pessoa que apresentou um recurso.


Reprodução do gráfico do estudo das principais queixas feitas por usuários das plataformas de redes sociais / IRIS

Em segundo lugar, representando 22,54% das reclamações sobre moderação, estão aquelas em que o recurso contra uma decisão de moderação não foi respondido pela plataforma. Essa lacuna pode alimentar a ideia de que as plataformas estão agindo de maneira arbitrária. Em vez disso, as empresas deveriam adotar uma abordagem mais rigorosa e transparente na moderação de conteúdos.    

Às vezes você pode nem mesmo ficar sabendo

Em um cenário onde muitas pessoas têm se utilizado de redes sociais como principal meio de comunicação para o seu trabalho, a falta de uma resposta aos recursos contra as decisões de moderação pode deixá-las em completo desamparo e afetar os seus ganhos. O mesmo pode ser dito em casos em que o usuário percebeu conteúdo removido, mas afirma não ter recebido nenhuma notificação a respeito (9,02%).

As porcentagens de reclamações nas categorias de design inacessível da plataforma (4,51%) e ausência de ferramentas de recurso/contestação/revisão (7,38%) são relativamente baixas, mas elas indicam áreas significativas de preocupação. A revisão constante dos processos de moderação, bem como a otimização das interfaces e funcionalidades das plataformas são essenciais para garantir não apenas a manutenção da eficácia e acessibilidade nestes aspectos, mas também para tornar as ações das plataformas cada vez mais transparentes e alinhadas com as necessidades dos usuários.

O problema não está só em remover postagens sem apresentar os motivos

Finalmente, nosso estudo também apontou que 45,66% das reclamações analisadas não tratavam de remoção de postagem ou suspensão/bloqueio de conta. Neste universo, as reclamações versavam sobre reclamações genéricas sobre a moderação de conteúdo das plataformas (36,1%); pedidos de moderação de conteúdo de terceiro (30,24%); problemas com monetização (10,24%); problemas com a recomendação ou o alcance do conteúdo (10,24%); restrição de funcionalidades na plataforma em virtude de decisão de moderação (10,24%); problemas gerados por limitação etária da plataforma (1,95%); pedidos de moderação de anúncios (1,46%).

Para saber mais sobre a metodologia da pesquisa, bem como sobre as reclamações que foram descartadas antes da análise final, acesse a pesquisa completa no site do IRIS.

*Fernanda Rodrigues. Coordenadora de Pesquisa e Pesquisadora no Instituto de Referência em Internet e Sociedade (IRIS). Doutoranda em Direito, Tecnociências e Interdisciplinaridade pela UFMG. Mestre em Direitos da Sociedade em Rede e graduada em Direito pela UFSM.

**Luiza Correa de Magalhães Dutra, doutoranda e mestra em Ciências Criminais pela PUCRS, com período sanduíche na uOttawa, Canadá. Bacharela em Ciências Sociais pela UFRGS e em Direito pela PUCRS. Pesquisadora e líder de projeto pelo Instituto de Referência em Internet e Sociedade (IRIS/BH). Integrante do Grupo de Pesquisa Políticas Públicas de Segurança e Administração da Justiça Penal (GPESC/PUCRS).

***Paulo Rená: Pesquisador do IRIS. Doutorando em Direito, Estado e Constituição na UnB. Foi gestor no processo de elaboração coletiva do Marco Civil no Ministério da Justiça.

*Este é um artigo de opinião e não reflete necessariamente a posição editorial do Brasil de Fato.

Da Redação