No YouTube, a ficção supera a realidade, diz ex-programador da rede social de vídeos do Google Reprodução

No YouTube, a ficção supera a realidade, diz ex-programador da rede social de vídeos do Google

As imagens de Logan Paul, celebridade na internet, fazendo piadas diante de um cadáver de um jovem na floresta japonesa Aokigahara foi um dos vídeos mais virais do YouTube, que tem cerca de 1,5 bilhão de usuários, durante o mês de janeiro. Conteúdos como esse, ultrajantes e violentos, são impulsionados pelo algoritmo da rede social do Google para manter uma pessoa viciada em sua tela, relatou recente reportagem do The Guardian. Da mesma forma, o sistema robótico pode ter sido fundamental para alimentar a desinformação durante as eleições presidenciais dos Estados Unidos em 2016. "No YouTube, a ficção está superando a realidade", disse Guillaume Chaslot, um programador de informática francês de 36 anos com doutorado em inteligência artificial, ao jornal britânico.

O YouTube, assinalou Chaslot, é algo que parece realidade, mas é distorcido para as pessoas gastarem mais tempo online e, com isso, garantindo melhor desempenho publicitário. "O algoritmo de recomendação não está otimizando o que é verdadeiro, equilibrado ou saudável para a democracia", completou o especialista, que durante três anos trabalhou no Google e, por vários meses, atuou no sistema de recomendação da rede social de vídeos. O programador foi demitido pelo Google em 2013. A empresa alegou problemas de desempenho. Ele garante que o motivo da demissão foi sua insistência em mudanças que diversificassem o conteúdo visto na rede social.

Procurado, o YouTube informou ao The Guardian que o sistema de recomendação evoluiu desde que Chaslot trabalhou na empresa e, agora, "vai além da otimização para o tempo de exibição". A empresa disse que, em 2016, passou a levar em consideração a "satisfação" do usuário, por meio de pesquisa e análises de interações de vídeos. A rede social afirmou que houve mudanças adicionais em 2017 para melhorar o conteúdo de notícias listadas em buscas e recomendações e, ainda, desencorajar a promoção de vídeos de conteúdo extremista.

Um software revelador

Chaslot disse acreditar que essas mudanças são apenas cosméticas e não conseguiram alterar tendências perturbadoras que evoluíram no algoritmo. É o que mostram os resultados de levantamentos feitos com base no software desenvolvido pelo programador francês em 2016. O programa simula o comportamento de um usuário que inicia sua navegação em um vídeo e segue a cadeia de vídeos recomendados, mas sem histórico de visualização, garantindo que os conteúdos detectados são recomendações genéricas do YouTube.

Nos últimos 18 meses, informou o The Guardian, Chaslot usou o programa para explorar a tendência dos conteúdos no YouTube durante as eleições francesas, britânicas e alemãs, aquecimento global e tiroteios em massa. As descobertas foram publicadas no site Algotransparency.com. Cada estudo encontra algo diferente, mas a pesquisa sugere que o YouTube amplifica sistematicamente os vídeos que são sensacionalistas e conspiradores ou tem por motivação a desunião.

Por exemplo: quando o nome de Michelle Obama, ex-primeira-dama dos Estados Unidos foi procurado no YouTube, a cadeia de sugestões de vídeos semelhantes mostrava, na maioria, conteúdos que dizem que ela "é um homem". Em outra busca, mais de 80% dos vídeos recomendados pela rede social sobre o papa o descreveram como "mau", "satânico" ou "o anticristão". Havia, ainda, milhões de vídeos carregados com conteúdos alegando que a terra é plana, entre outros absurdos.

Seis vezes mais favorável a Trump

O The Guardian analisou o banco de dados das pesquisas de Chaslot sobre a eleição dos Estados Unidos, em 2016, e constatou um grande desequilíbrio. Em 8 mil vídeos recomendados nos meses que precederam o pleito – e vistos mais de três bilhões de vezes naquele período –, o algoritmo foi seis vezes mais propenso a recomendar vídeos prejudiciais à Hillary Clinton do que ao então candidato republicano, Donald Trump. Os vídeos que receberam grande impulso incluíam informações falsas que diziam, por exemplo, que a democrata sofria problema mental, de sífilis ou de Parkinson, além de acusações infundadas de envolvimento dela em assassinatos, cultos satânicos e pedofilia.

A estudar um recorte de 1 mil dos 8 mil vídeos, o The Guardian chegou ao mesmo resultado. O jornal constatou que pouco mais de um terço dos audiovisuais não estava relacionado com a eleição ou continha conteúdo que era amplamente neutro ou imparcial. Dos restantes (643 vídeos), 551 favoreciam Trump, enquanto apenas 92 revelavam preferência à campanha de Hillary Clinton. “A amostra que tínhamos analisado sugeriu que a conclusão de Chaslot estava correta: o YouTube tinha seis vezes mais chances de recomendar vídeos que ajudassem Trump ao invés de sua adversária. O YouTube, presumivelmente, nunca programou seu algoritmo para beneficiar um candidato em relação a outro. Mas, com base nessa evidência, pelo menos, é exatamente isso o que aconteceu”, afirmou o jornal britânico.

Os vídeos recomendados pelo YouTube que integram o banco de dados de Chaslot também foram analisados ​​pela Graphika, empresa que analisa desinformação em campanhas políticas. A companhia concluiu que muitos dos vídeos pareciam ter sido pressionados por redes de perfis falsos e bots hospedadas no Twitter e controladas por consultores digitais pró-Trump com "uma assistência presumivelmente não solicitada" da Rússia.

“A história mais ignorada de 2016”

Em resposta ao The Guardian, um porta voz do YouTube disse: "Nós temos um grande respeito pelo The Guardian como uma fonte de notícias e instituição. No entanto, estamos totalmente em desacordo com a metodologia, os dados e, o mais importante, as conclusões feitas em suas pesquisas. Nossos sistemas de busca e recomendação refletem o que as pessoas buscam, a quantidade de vídeos disponíveis e os vídeos que escolhem assistir no YouTube. Isso não é um viés para qualquer candidato em particular. Isso é um reflexo do interesse do espectador ".

No entanto, os críticos advertiram há meses que o algoritmo também vem empurrando conteúdo perturbador dirigido a crianças, dando enorme espaço para teorias de conspiração, inclusive tiroteios em massa. Além disso, mesmo que não esteja tão exposto neste momento quanto Facebook e Twitter nas investigações do Congresso norte-americano, muito provavelmente influenciou as eleições dos Estados Unidos. "O YouTube é a história mais ignorada de 2016", diz a socióloga especializada em tecnologia Zeynep Tufekci. "Seus algoritmos de pesquisa e recomendação são motores de desinformação".

Risco às crianças

As crianças também são vítimas das recomendações inapropriadas do YouTube. O The Guardian e a BBC informaram que o problema está presente até mesmo no aplicativo específico para esse tipo de público, o YouTube Kids. Há, por exemplo, personagens proferindo palavrões, enquanto outros usam armas. Muitas crianças relataram terem assistido a vídeos com palhaços ensanguentados, mensagens violentas e clipes assustadores.

A rede social de vídeos, contou a BBC, também consegue não resolver o problema de usuários que publicam vídeos com crianças em situações íntimas, violentas ou humilhantes. Apesar do YouTube ter anunciado no fim do ano passado a retirada de 150 mil vídeos chocantes envolvendo menores e o cancelamento de alguns canais, ainda é possível encontrar centenas de publicações com conteúdo impróprio envolvendo crianças ou voltadas para elas. Há, segundo a BBC, imagens de meninas com roupas de banho em posições em que suas partes íntimas ficam em evidência. Outras mostram situações escatológicas envolvendo fezes, vômito, cuspe e urina.

Rede de intrigas

No Brasil, rápida pesquisa de nomes de personalidades do país no YouTube, feita na terça-feira (06), revela que a rede social abriga e lista em suas sugestões notícias falsas, informações distorcidas, intrigas, desqualificações e estímulo ao ódio ideológico ou político. Luiz Inácio Lula da Silva, por exemplo, aparece em vários vídeos sensacionalistas com títulos como “Plano de fuga de Lula é descoberto”. O também ex-presidente Fernando Henrique Cardoso é anunciado em um dos conteúdos como “O marxista comuna sociopata”.

Na busca pelo nome do deputado federal Jair Bolsonaro, pré-candidato à Presidência, há uma infinidade de vídeos favoráveis a ele. As generosidades passam inclusive pela tentativa de melhorar a imagem do parlamentar em relação a muitas de suas polêmicas declarações. Em um vídeo, com o título “O que os gays pensam sobre Jair Bolsonaro?”, pessoas que se declaram homossexuais defendem o pré-candidato a presidente. Em número bem menor, alguns conteúdos, entretanto, replicam recentes reportagens sobre o crescimento do patrimônio do deputado e de sua família durante o exercício de cargos públicos.

Na pesquisa do nome de outro deputado, Jean Wyllys, defensor da causa LGBT, há mais equilíbrio no número de vídeos favoráveis e desfavoráveis. Os conteúdos negativos, entretanto, são agressivos. Exemplo: “Jean Wyllys um canalha pervertido e seus argumentos defendendo a exposição de incentivo à pedofilia”. Mas a maior profusão é a de vídeos sobre celebridades no estilo “fofoca”, marcados por títulos exagerados, induzindo o usuário a uma informação equivocada – algumas vezes esclarecida no conteúdo – ou falsos.

Eis alguns dos vídeos oferecidos quando se procura o nome do jogador de futebol Neymar: “Bruna Marquezine anuncia que está gravida de Neymar? Entenda”; “Neymar não pode ter mais filhos e o motivo abala Bruna Marquezine”; “Doença grave pode abalar a vida de Neymar e atrapalhar retorno com Marquezine”. A jornalista Maria Júlia Coutinho, da TV Globo, é outro alvo das falsidades. Um dos vídeos recomendados a partir da busca do nome dela estampa a seguinte manchete “Maju é demitida da globo a mando de William Bonner e o motivo é assustador”. A jornalista permanece na emissora, tendo recentemente voltado de um período de férias.

Leia mais em:

https://www.theguardian.com/technology/2018/feb/02/youtube-algorithm-election-clinton-trump-guillaume-chaslot

https://www.theguardian.com/technology/2018/feb/05/senator-warns-youtube-algorithm-may-be-open-to-manipulation-by-bad-actors

https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth

http://www.bbc.com/portuguese/salasocial-42775208