facebook-fakes

Por que as teorias da conspiração funcionam tão bem no Facebook?

ataques anicos eram comuns. Funcionários brincavam sobre suicídio, faziam sexo nas escadas e fumavam maconha no intervalo.

Um relatório investigativo perturbador do Verge na semana passada revelou que alguns dos moderadores de contratos do Facebook – encarregados de manter o conteúdo como decapitações, bestialidade e racismo fora do seu feed de notícias – recorreram a mecanismos extremos para lidar com o dia de trabalho. Alguns contratados foram profundamente impactados pelo conteúdo a que estão expostos, o que pode ter implicações para o resto de nós que se acostumaram a passar por links esboçados em nossos feeds de notícias.

Para alguns trabalhadores, ver repetidamente vídeos e memes conspiratórios tornou-se uma porta de entrada para abraçar as próprias teorias conspiratórias. Os empreiteiros disseram ao Casey Newton, do Verge, que alguns de seus colegas “abraçariam as visões periféricas” depois de passarem dias vasculhando os vídeos e memes da conspiração.

“Um auditor passa a andar promovendo a ideia de que a Terra é plana”, escreveu Newton.

Como a maioria das informações erradas não é banida pelas regras da plataforma, o Facebook geralmente não as remove completamente, argumentando, em vez disso, que elas devem ser respondidas com relatórios factuais. Tais esforços não foram totalmente bem-sucedidos: um artigo recente no The Guardian descobriu que “os resultados da pesquisa para grupos e páginas com informações sobre vacinas eram dominados pela propaganda anti-vacinação” na rede social.

Se o usuário médio de mídias sociais fosse parecido com um fumante casual, os moderadores estão consumindo o equivalente a dois maços por dia.
Claro, isso não é problema apenas do Facebook. Um livro de conspiração Qanon, auxiliado pelos algoritmos da Amazon, está subindo rapidamente nos gráficos de vendas do site. O YouTube anunciou na sexta-feira que suspenderá anúncios de todos os vídeos que contiverem Momo, uma figura macabra que alguns pais se preocupam, sem necessidade, de instruir seus filhos a se machucar ou se matar em um “desafio” viral. Isso não impediu todos os tipos de Momo contente de se espalhar, é claro.

O que faz com que uma pessoa de outra maneira lógica aceite isso? Se os moderadores do Facebook – aqueles supostamente treinados para ver esse material problemático – são tão visceralmente afetados, que esperança há para o resto de nós?

alguns fatores psicológicos podem estar em jogo. As pessoas tendem a desenvolver uma preferência por ideias com as quais estão familiarizadas, um fenômeno da ciência social que é conhecido como o efeito da mera exposição ou o princípio da familiaridade. As ideias, nesse enquadramento, funcionam um pouco como vírus infecciosos.

“Quanto mais você vê, mais familiar é algo, e quanto mais familiar algo é, mais acreditável ele é”, diz Jeff Hancock, professor de comunicação e diretor fundador do Stanford Social Media Lab.

O conteúdo de conspiração é projetado para ser persuasivo. As pessoas aceitam essas teorias porque ajudam a entender um mundo que parece aleatório; mesmo que pareçam distantes para o resto de nós, eles podem oferecer alguma sensação de conforto ou segurança. E ver essas teorias aparecendo repetidas vezes em seu feed de notícias do Facebook “começa a minar a sensação de que eles são marginais”, diz James Grimmelmann, professor da Cornell Law School que estuda direito da internet e redes sociais.

Enquanto um usuário do Facebook pode ficar indignado na primeira vez que vê um vídeo censurável em seu feed, é improvável que ele tenha uma reação negativa igualmente emocional se essa experiência for repetida várias vezes. Com visões suficientes, eles podem achar a mensagem palatável ou, no mínimo, menos chocante. Abra a porta para sua mente uma rachadura, e conspiração pode entrar.

“A exposição repetida também pode fazer os moderadores pensarem que a teoria da conspiração é mais prevalente do que na população e, portanto, faz com que eles a adiram lentamente”, diz Dominique Brossard, professora do departamento de comunicação de ciências da vida da Universidade de Wisconsin-Madison. . “É por isso que as normas sociais são tão poderosas.”

Se essas crenças forem instiladas, as pessoas trabalharão para reforçá-las, simplesmente porque tendemos a trabalhar arduamente para defender visões quando as mantemos. “Uma vez que você começa a acreditar, o viés de confirmação entra em ação”, diz Hancock, referindo-se à tendência humana de buscar informações ou fontes de notícias que apoiam crenças preexistentes.

Um fator contribuinte menor pode ser o fenômeno psicológico conhecido como contágio emocional, que é quando sentimentos ou emoções se espalham de pessoa para pessoa. Você pode não conhecer o termo, mas conhece o sentimento. Imitar inconscientemente a expressão facial ou espelhar o humor de alguém com quem você passa tempo são exemplos de contágio emocional.

“Conspirações exonerá-los por sua própria desgraça.”
Pode ser que os vídeos de conspiração incutam ou espalhem medo nos telespectadores, que depois de espelhar essa emoção, procuram atribuir esse medo inexplicado a uma fonte tangível. “Estou me sentindo estranho, nojento e com medo. Por que isso acontece? ”, Pergunta Hopkins como hipotético. “Isso é provavelmente porque o governo está contra nós. Você está racionalizando por que está chateado” – mesmo que o que o deixou chateado em primeiro lugar tenha sido o conteúdo da conspiração.

Embora o estresse psicológico extremo dos moderadores do Facebook esteja provavelmente ligado à alta quantidade de conteúdo perturbador que eles consomem no trabalho – um moderador que falou com o Verge analisou até 400 postagens por dia – o Facebook ainda pode servir conspiração ou simplesmente vídeos falsos, notícias e memes para o resto de nós.

O que nossa exposição coletiva ao conteúdo de conspiração no Facebook significa para a saúde mental pública em geral? Estamos todos a apenas alguns cliques para nos identificarmos como “planetas” ou pior?

Joseph Walther, diretor do Centro de Tecnologia da Informação e Segurança da Universidade da Califórnia-Santa Bárbara, alertou contra a extrapolação da experiência extrema dos moderadores do Facebook. Se o usuário médio de mídias sociais fosse parecido com um fumante casual, os moderadores estão consumindo o equivalente a dois maços por dia.

“Os moderadores que você descreve, eles estão claramente sob coação”, Walther diz à OneZero. “Seu nível de exposição a essas mensagens não é normal. A experiência deles não é mapeada para o resto de nós. ”

A diferença final entre indivíduos que não são afetados pelo conteúdo da conspiração e aqueles que se tornam doutrinados pode se resumir ao que está acontecendo com eles offline. Um grande golpe no ego de um indivíduo, como ser demitido de um emprego ou rejeitado por um parceiro romântico, pode atrair algumas pessoas para o racismo ou teorias da conspiração, que Walther diz estarem frequentemente interligadas. Quando eles estão sofrendo, os humanos gostam de encontrar um bode expiatório.

“Se eles já são propensos à ideologia racista e percebem alguma ameaça ao status ou pureza ou privilégio de sua própria raça ou sexo e, em seguida, experimentam uma vulnerabilidade específica, conspirações poderiam ser especialmente atraentes”, diz ele. “Conspirações exonerá-los por sua própria desgraça.”

Embora o público em geral possa estar menos em risco de doutrinar teoria conspiratória do que os moderadores do Facebook, isso não significa que um risco para a saúde pública não exista.

Petter Tornberg, sociólogo da Universidade de Amsterdã, na Holanda, compara a disseminação da desinformação em uma rede social a um incêndio florestal. “Uma câmara de eco tem o mesmo efeito que uma pilha seca de piche na floresta”, diz Tornberg à OneZero. “Ele fornece o combustível para uma pequena chama inicial, que pode se espalhar para paus, galhos e árvores maiores, para finalmente engolir a floresta.”

Que as redes sociais como o Facebook tendem a criar uma câmara de eco – ou o que Eli Pariser chamou de “bolha de filtro” – não é por acaso. É o resultado inevitável da economia de atenção.

“Como as plataformas on-line são baseadas em publicidade, elas estão operando em um ambiente no qual estão competindo por atenção”, diz Tornberg. A indignação e a raiva são formas eficientes de maximizar a atenção dos espectadores – as pessoas interagem e compartilham a cobertura sensacionalista de tal forma que uma indústria caseira de spammers surgiu nas mídias sociais, onde “notícias indesejadas” podem gerar impressões de anúncios. Há pouco incentivo para que plataformas como o Facebook desencorajem os usuários a se voltarem para pequenos grupos de interesse em que material escandaloso é compartilhado.

“Isso é apenas capitalismo”, diz ele. “Há empregos desagradáveis, como limpar o esgoto. Nós queremos o tipo de coisas que esses empregos suportam. ”
“As mídias sociais não precisam necessariamente ser projetadas de uma maneira que nos empurre para a tribalização e a auto-segregação”, diz Tornberg. “Eles também poderiam ser projetados para ajudar a formar a base para um mundo comum.” Por exemplo, ele aponta para a comunidade “Change My View” do Reddit, onde usuários postam opiniões que aceitam podem ter falhas na esperança de ter uma discussão e entender outras perspectivas. .

“Mas isso exigiria incentivos diferentes para as empresas por trás deles.” E, no momento, redes sociais como o Facebook – que faturaram US $ 22 bilhões em 2018, um aumento de quase 40% em relação ao ano anterior – estão fazendo um trabalho muito eficiente. incentivos econômicos.

A automatização da moderação de conteúdo pouparia os seres humanos dos efeitos potencialmente danosos da visualização de grandes quantidades de vídeos traumáticos e postagens da teoria da conspiração. Mas, embora a inteligência artificial possa parecer uma solução óbvia para reduzir a exposição dos moderadores e do público às teorias da conspiração – embora com o custo final de muitos desses empregos de moderadores -, Hancock diz que a tecnologia ainda não está lá.

“Os seres humanos estão desenvolvendo e produzindo esse conteúdo”, diz ele. “Por um bom tempo, os humanos serão os únicos que podem fazer esses julgamentos.”

Isso ocorre em parte porque as postagens sinalizadas no Facebook são, por definição, atípicas e atuais. não se dá bem com o atípico. “É difícil prever muitos dos tipos de conteúdo que eles veem”, diz Hancock. “Parte disso é porque é coisa de franja.”

O conteúdo de franja nos surpreende porque é incomum e os computadores são treinados para reagir a situações que encontraram antes. Treinar uma máquina para reagir a conspirações ainda imagináveis ​​é praticamente impossível neste momento.

Para Grimmelmann, a existência de moderação de conteúdo como profissão é um mal necessário para proteger a saúde mental do país em geral – desde que o país permaneça viciado nas mídias sociais em sua forma atual.

“Isso é apenas capitalismo”, diz ele. “Há empregos desagradáveis, como limpar o esgoto. Nós queremos o tipo de coisas que esses empregos suportam. ”

Só porque um trabalho desagradável é socialmente necessário, no entanto, não significa que os empregadores não devam fazer nada para melhorar essas condições de trabalho. Grimmelmann acredita que o público deve pressionar plataformas como o Facebook a se comprometerem a manter teorias de conspiração fora dos feeds de notícias dos usuários e garantir que seus moderadores de conteúdo tenham o apoio necessário para proteger o resto de nós, incluindo uma carga de trabalho reduzida, mais suporte emocional e melhor pagamento. (De acordo com a Verge, os contratados da Cognizant ganham US $ 28.800 por ano).

E isso significa que mais pessoas, e não menos, precisarão participar do trabalho de moderação de conteúdo. “Infelizmente, isso vai ter que ser uma indústria muito maior”, diz Hancock.

O que estamos vendo agora é apenas o começo. Somente o Facebook diz que emprega 30.000 trabalhadores de confiança e segurança, incluindo empreiteiros. Metade deles trabalha com moderação de conteúdo, e o investimento em revisão de conteúdo quase certamente continuará a aumentar.

“Mais do que dobramos essa equipe nos últimos dois anos, adicionando milhares de pessoas a esses esforços”, escreveu Justin Osofsky, vice-presidente de Operações Globais do Facebook, em um post publicado no Facebook em 25 de fevereiro.

Então, assim como as pessoas criaram esses problemas para começar – explorando uma plataforma para espalhar teorias de conspiração e outros materiais perturbadores – as pessoas terão que consertá-las. Nenhum processo automatizado pode antecipar toda a permutação de conteúdo indesejado que conseguimos criar.

Ou, como Hancock coloca: “Eu não acho que os humanos estarão fora.”


Advertisement