Facebook combate sem transparência sites de “má qualidade” e afeta alcance de páginas jornalísticas

Facebook combate sem transparência sites de “má qualidade” e afeta alcance de páginas jornalísticas

Sem conseguir resolver a propagação de notícias falsas, extremismo e manipulação política em seu site, o Facebook tem limitado o alcance de determinadas páginas consideradas de "má qualidade" em uma frente cujo funcionamento lembra a pesca predatória e sem transparência. Estudo produzido pelo Monitor do Debate Político no Meio Digital, do Grupo de Pesquisa em Políticas Públicas para o Acesso à Informação da USP (GPoPAI-USP), mostrou que, em acompanhamento de mais de 200 milhões de compartilhamentos de matérias política de 20 sites de abril a outubro de 2017, vários sites de jornalismo profissional, que servem como parâmetro para a investigação, tiveram uma redução expressiva de compartilhamentos no período, de até 50%, relatou a BBC Brasil.

Para Pablo Ortellado, coordenador do estudo, a redução de alcance promovida pelo Facebook é tanta "que equivale a censura". Ao comentar o caso do site de direita e de pouca credibilidade Folha Política – que teve queda vertiginosa nos compartilhamentos –, ele questionou: "A gente pode concordar ou não que não era um site bom. Mas será que a gente quer que uma empresa defina o que deve chegar até nós?" O questionamento foi feito no último domingo (12) durante palestra sobre "Plataformas, jornalismo e política" no festival 3i - Jornalismo Inovador, Inspirador e Independente, no Rio de Janeiro, que contou com a presença da líder de parcerias com veículos de mídia do Facebook para a América Latina, Cláudia Gurfinkel.

A executiva confirmou a iniciativa do Facebook por meio da qual sites com "quantidade enorme de anúncios dentro da página e pouco texto" e postagens "caça-cliques" têm seu alcance reduzido intencionalmente pela empresa norte-americana. O Facebook, entretanto, não divulga quais páginas ou postagens tiveram seu alcance restringido, ou seja, páginas ou postagens que passaram, por meio de algoritmos, a aparecer menos no mural de notícias de cada usuário. Também não informa quais páginas tiveram seu conteúdo limitado ou tampouco lhes dá direito de resposta. À BBC Brasil, Cláudia Gurfinkel afirmou que os critérios para a redução de alcance de páginas "estão publicados e divulgados" nas plataformas de divulgação do Facebook. Segundo ela, se um veículo de credibilidade estiver adotando as práticas lá previstas simplesmente para conseguir clique, ele também pode sofrer algum tipo de punição.

O poder de decidir que conteúdo chega ao mural de notícias dos usuários é criticado por pessoas como o historiador britânico Niall Ferguson, informou a BBC Brasil. Para ele, cujas ideias são alinhadas à direita, os usuários não deveriam deixar a cargo da empresa a autoridade de retirar discursos de ódio da plataforma, por exemplo. "Pessoalmente, defendo a liberdade de expressão sob o risco de me sentir ofendido pelo que os outros dizem, (mas) decidindo eu mesmo o que bloquear em vez de deixar isso para o 'Cidadão Zuck'", afirma, em referência a Mark Zuckerberg.

Na segunda-feira (13), o jornal The Guardian publicou uma reportagem em que jornalistas que atuaram no projeto americano falaram anonimamente sobre o trabalho, que acreditam ter falhado. Eles reclamam da falta de estatísticas para avaliar os resultados de seu empenho para impedir a disseminação de notícias falsas.

Falsos usuários

Os embaraços do Facebook não param por aí. O número de perfis falsos ou duplicados na mídia social é atualmente superior a 270 milhões, 13% dos quase 2,1 bilhões de usuários mensais ativos na plataforma. A informação foi divulgada na virada de outubro para novembro e passou quase sem chamar a atenção em meio a um resultado positivo de faturamento da empresa com anúncios, que cresceu 79% no último trimestre.

Dias depois, o primeiro presidente do Facebook, o bilionário Sean Parker, disse em entrevistas que o sucesso da rede social comandada por Mark Zuckerberg deve-se à exploração da vulnerabilidade psicológica humana. O Facebook, afirmou Parker, mudou a forma como as pessoas se relacionam em sociedade, interferindo na produtividade. “Somente Deus sabe o que [a redes social] está fazendo ao cérebro de nossos filhos”, chegou a afirmar.

Parker comentou que, para manter os usuários na rede social conectados, a plataforma precisa fornecer com alguma frequência algum tipo de dopamina - neurotransmissor responsável pelo sistema de comportamento motivado por recompensa -, informou o UOL. Na prática, isso é causado porque alguém curtiu um post ou uma foto do usuário, o que faz os perfis contribuírem com mais conteúdos, que levarão as pessoas a mais curtidas e comentários. "É um loop de resposta de validação social (…). é o tipo de solução que hackers, como eu, usamos, pois você está explorando uma vulnerabilidade psicológica humana."

Leia mais em

http://www.bbc.com/portuguese/brasil-41971998

http://www.businessinsider.com/ex-facebook-president-sean-parker-social-network-human-vulnerability-2017-11?nr_email_referer=1&utm_source=Sailthru&utm_medium=email&utm_content=TechSelect&pt=385758&ct=Sailthru_BI_Newsletters&mt=8&utm_campaign=BI%20Tech%20%28Tuesday%20Thursday%29%202017-11-09&utm_term=Tech%20Select%20-%20Engaged%2C%20Active%2C%20Passive%2C%20Disengagedhttp://www.newsmediaworks.com.au/facebook-admits-to-270-million-fake-accounts/?utm_source=Weekly+Newsletter&utm_campaign=9e3abe36c0-EMAIL_CAMPAIGN_2017_11_08&utm_medium=email&utm_term=0_6cc6e83f81-9e3abe36c0-123892857

https://www.washingtonpost.com/news/the-switch/wp/2017/11/09/facebooks-first-president-on-facebook-god-only-knows-what-its-doing-to-our-childrens-brains/?utm_term=.a048a412c2f1