Notícias

A negligência do Facebook

Por Erin Woycik para IFEX

No ano passado, a questão do controle pelo Facebook sobre o que seus usuários vêem e publicam veio à tona, em tempo. Embora sempre tenha ficado claro que o Facebook está no comando, uma recente série de proibições de determinados usuários e conteúdo têm feito as pessoas se perguntarem sobre em que medida o Facebook deve poder controlar o que é compartilhado em sua plataforma. As preocupações surgiram em torno de como e o que o Facebook decide que cada usuário verá, além de quais responsabilidades, se houver, o Facebook tem nesta área. Após alegações de que notícias falsas no Facebook podem ter influenciado os eleitores durante as recentes eleições nos EUA e estatísticas mostrando que 88% dos millenials estão recebendo agora pelo menos algumas de suas notícias pelo Facebook, entender o que os usuários estão vendo está se tornando cada vez mais importante.

Algoritmos e Viés de Confirmação

Quando alguém entra no Facebook e percorre seu feed de notícias, o que está realmente vendo? Ao longo da história do Facebook, a resposta desta pergunta mudou muitas vezes. O gigante da mídia social emprega um conjunto em constante mudança de algoritmos que usam dados baseados nas atividades passadas de cada usuário para prever o que achará mais interessante e útil entre vários itens publicados por seus amigos, grupos e páginas. Estes algoritmos têm uma profunda influência sobre o que aparece no feed do usuário e o código por trás deles é um segredo comercial do Facebook.

Em 2015, muitas organizações sem fins lucrativos descobriram que o alcance de suas publicações estava diminuindo e que menos pessoas estavam vendo seus conteúdos. Mesmo as pessoas que curtiram a página no Facebook de uma ONG não estavam vendo todas as suas publicações. Parte disso é resultado dos níveis crescentes de conteúdo em concorrência no Facebook, mas outra parte é consequência de uma mudança no algoritmo do feed de notícias que bloqueou o que o Facebook considerava ser publicações “excessivamente promocionais” nos feeds das pessoas.

Isto é bom por significar que as pessoas verão menos anúncios que acharem irritantes, mas também significa que, para permanecerem competitivas, as organizações sem fins lucrativos terão de recorrer ao pagamento do Facebook para promover suas publicações.

É frustrante para os usuários não saber o que controla seu acesso a publicações específicas, e já há manifestações contrárias a este fato. No entanto, suas próprias ações – suas escolhas em termos de amigos e o que “curtem” – fazem parte do processo pelo qual os algoritmos selecionam o que aparecerá em seus feeds de notícias.

A combinação de escolha pessoal e algoritmos cria uma situação em que aqueles que estão no Facebook veem cada vez mais apenas conteúdos consistentes com o que gostavam anteriormente. Isto ocorre porque os algoritmos são projetados para mostrar às pessoas o que elas determinaram que será o conteúdo mais envolvente, e se nós, como usuários, continuamos “curtindo” o que já gostamos, existe um perigo de viés de confirmação. Os usuários terminam dentro de uma bolha em que há probabilidades cada vez menores de que sejam expostos a diferentes pontos de vista.

Mark Zuckerberg, o CEO do gigante de mídia social, afirma que plataformas de mídia social são mais diversificadas do que qualquer outra fonte de mídia e nega que o Facebook crie bolhas de filtros. No entanto, muitas vozes, incluindo as de veículos de comunicação proeminentes e dos próprios pesquisadores do Facebook, estão questionando a afirmação de Zuckerberg. As bolhas têm sido por vezes descritas como incubadoras de jardins murados” e “câmaras de eco on-line”, que levam os usuários a uma visão de túnel e uma falta de interesse em procurar pontos de vista opostos. Uma revisão da própria pesquisa do Facebook declarou: “Você está vendo menos notícias das quais você discordaria e que são compartilhadas por seus amigos porque o algoritmo não está mostrando para você.”

Políticas de conteúdo

Os famosos Padrões da Comunidade do Facebook descrevem o tipo de conteúdo que os usuários podem e não podem publicar e descrevem como conteúdos ofensivos podem ser denunciados ao Facebook. Por exemplo, certas imagens com nudez e imagens que glorificam a violência não são permitidas.

No início deste ano, houve uma proibição temporária de O Terror da Guerra, a famosa foto da garota vítima de uma ataque de napalm, e mais recentemente, um vídeo “ofensivo” de sensibilização sobre câncer de mama foi retirado.

O Facebook diz que suas políticas “às vezes podem ser mais rígidas do que gostaria e restringir conteúdo compartilhado com fins legítimos”. No último ano, houve muitos casos de conteúdo bloqueado e, em seguida, reintegrado depois que o Facebook considerou que havia sido publicado com “fins legítimos”.

Se há um mecanismo de correção em funcionamento se o Facebook está policiando conteúdo ofensivo e corrigindo erros quando eles acontecem – existe realmente um problema? Pode haver, por exemplo, quando o conteúdo é sensível ao momento em que é publicado. Quando a namorada de Philando Castile – homem afro-americano assassinado por policiais – transmitiu ao vivo imagens impactantes dos momentos posteriores para mostrar ao mundo a verdade, como aconteceu, o vídeo foi rapidamente removido devido a uma “falha técnica”. O Facebook também foi acusado de censurar o vídeo.

Mas há outro problema. Em primeiro lugar, as dificuldades dos usuários em entender as políticas do Faceboook são enormes. Quantos usuários realmente leem estas informações? Quantos podem encontrar estas políticas em seu próprio idioma? Embora a interface do Facebook esteja disponível em muitos idiomas, os Padrões da Comunidade e as configurações de privacidade não estão. Por exemplo, se você escolher ler os Padrões da Comunidade em quiniaruanda (uma das língua oficiais de Ruanda), o conteúdo permanece em inglês. Além disso, continua difícil navegar pelos controles de privacidade em qualquer idioma.

Em um nível mais alto, há preocupações sobre as motivações por trás de certas remoções e sobre as responsabilidades que o Facebook tem – com seus usuários e com a comunidade global.

Depois de reintegrar perfis e páginas removidas, as razões dadas pelos porta-vozes do Facebook para estas ações estão se tornando muito familiares – normalmente, nenhuma explicação: “As páginas foram removidas por engano”, “Uma de nossas políticas automatizadas foi aplicada incorretamente” ou “Foi uma falha técnica”. Variações destas não-razões foram dadas para uma variedade de remoções de página, que incluem grupos pró-Bernie Sanders removidos em abril, pouco antes do anúncio formal do senador norte-americano de sua candidatura à indicação democrata; o vídeo do assassinato de Philando Castille, duas páginas de libertários por postagens não especificadas que violaram os padrões e vários relatos de jornalistas palestinos. No último caso, vários editores de, pelo menos, três veículos de comunicação diferentes descobriram que suas contas haviam sido desativadas quando tentaram iniciar sessões. Isto ocorreu depois do anúncio de um acordo entre o Facebook e o governo israelense para combater o “incitamento”, o que levou alguns dos jornalistas palestinos a pensarem que haviam se tornado alvos por causa deste acordo.

Todos estes exemplos têm um elemento comum, relativo ao discurso político. O Buzzfeed informou que o Facebook não respondeu suas perguntas sobre se a empresa reavaliaria sua tendência a silenciar equivocadamente discursos politicamente significativos.

Desinformação

Além disso, há a questão das informações incorretas e intencionalmente enganosas que estão sendo erroneamente promovidas junto aos usuários do Facebook. Em agosto, depois de ter recebido críticas pelo papel significativo desempenhado pela intervenção humana em seus trending topics – que não eram escolhidos apenas pelo algoritmo, como se pensava anteriormente – o Facebook eliminou o elemento humano. Poucos dias depois, a desinformação começou a tomar conta dos feeds dos usuários. Usuários que buscavam o nome de Megyn Kelly, jornalista da Fox News, encontraram uma manchete incorreta, que indicava que ela havia sido demitida pelo canal, entre outras manchetes ultrajantes e ofensivas em evidência.

Mas o escândalo dos trending topics não é o único exemplo de como notícias falsas têm tomado conta dos feeds dos usuários. O algoritmo exato do Facebook pode ser um mistério, mas sabemos que, além de nos mostrar histórias semelhantes às que já gostamos, também nos mostra histórias que muitas outras pessoas gostaram, seja o conteúdo verdadeiro ou não. O algoritmo não leva em conta se uma determinada história é precisa ou não. Enquanto for lida e clicada, moverá para o topo da pilha. Os verificadores de fatos do Facebook não podem analisar tudo o que é publicado por seus mais de um bilhão de usuários em todo o mundo.

Mas o Facebook tem a responsabilidade de garantir que tudo o que é publicado é verdade? Ainda que mais da metade dos norte-americanos recebam notícias pelo Facebook e se saiba que altos executivos gerenciam a política de conteúdo e fazem escolhas com base em juízos editoriais, o Facebook nega ser uma empresa de mídia. Mark Zuckerberg afirma que o Facebook é uma empresa de tecnologia que dá à mídia a plataforma e as ferramentas para que compartilhe suas histórias e que, por não criar seu próprio conteúdo, o Facebook não é uma empresa de mídia.

Mas ele hospeda, distribui e lucra com o conteúdo da mesma forma que fazem outros veículos de comunicação.

Apenas na semana passada, o Facebook anunciou que bloqueará anúncios exibindo notícias falsas, um movimento que visa tornar menos lucrativo divulgar histórias falsas. Esta foi, em parte, uma resposta às alegações de que notícias falsas no Facebook durante a campanha presidencial dos EUA acabaram balançando eleitores e influenciando o que sabiam sobre os candidatos.

No entanto, quando se fala de verificação e remoção de postagens de notícias falsas compartilhadas pelos usuários, não há incentivos para que o Facebook faça isto. Neste mundo da pós-verdade, o modelo de negócio do Facebook depende de cliques, compartilhamentos e engajamento, não da credibilidade de seu conteúdo.

Artigo AnteriorPróximo Artigo

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

13 − 7 =