Ciência ajuda verificadores de fatos no combate a vídeos manipulados Reprodução

Ciência ajuda verificadores de fatos no combate a vídeos manipulados

Os vídeos que manipulam a realidade e multiplicam a desinformação nas redes, chamados de deepfakes, estão cada vez mais sofisticados. Mas a ciência também avança para desmascará-los. Novos estudos da equipe liderada pelo professor de computação Siwei Lyu, diretor do Laboratório de Visão Computacional e Machine Learning da Universidade do Estado de Nova Iorque em Albany, por exemplo, oferecem algumas dicas de como os verificadores de fatos podem detectar esses conteúdos fraudulentos em rápidas análises.

“Quando um algoritmo de síntese de vídeo deepfake gera novas expressões faciais, as novas imagens nem sempre correspondem ao posicionamento exato da cabeça da pessoa, às condições de iluminação ou à distância da câmera”, ensina Lyu em artigo no site The Conversation. “Para fazer com que os rostos falsos se misturem com o ambiente, eles precisam ser transformados geometricamente – girados, redimensionados ou distorcidos. Esse processo deixa artefatos digitais na imagem resultante”, explica o pesquisador.

Os vídeos manipulados – assim como fotos – muitas vezes, afirma Lyu, têm bordas borradas, enquanto a pele das pessoas costuma aparecer com uma cor suavemente artificial nas peças fraudulentas. Além disso, detalha o pesquisador, vídeos que capturam uma pessoa real mostram o rosto se movendo em três dimensões, mas os algoritmos usados para produzir vídeos falsos geram uma imagem bidimensional regular do rosto e, em seguida, tentam girar, redimensionar e distorcer essa imagem para ajustar-se à direção que a pessoa deve estar procurando. “Em um vídeo real da cabeça de uma pessoa, tudo deve se alinhar de forma bastante previsível. Em um deepfake, no entanto, eles estão frequentemente desalinhados”.

Lyu afirma que ciência de detectar vídeos manipulados é, efetivamente, uma corrida armamentista. “Os falsificadores vão melhorar em fazer suas ficções, e por isso nossa pesquisa sempre tem que tentar acompanhar, e até mesmo ficar um pouco à frente”, diz. Por isso, conta o pesquisador, sua equipe encontrou uma forma de influenciar os algoritmos que criam deepfakes para que sejam menos eficazes em suas tarefas.

Lyu observa que as bibliotecas de imagens de faces são montadas por algoritmos que processam milhares de fotos e vídeos online e usam aprendizado de máquina para detectar e extrair rostos. Quando a biblioteca resultante tem muitas imagens faciais de alta qualidade, o deepfake resultante provavelmente terá mais sucesso em enganar seu público. “Nós encontramos uma maneira de adicionar ruído especialmente projetado para fotografias digitais ou vídeos que não são visíveis aos olhos humanos, mas podem enganar os algoritmos de detecção de rosto”, afirma. Na prática, o recurso oculta padrões de pixel que os detectores de face usam para localizar um rosto, criando iscas que sugerem um rosto onde não há um, como em um pedaço do fundo ou um quadrado da roupa de uma pessoa.

Apesar desses recursos, os vídeos manipulados são uma ameaça às democracias. "Ainda não chegamos à etapa em que os deepfakes são usados como armas, mas esse momento está próximo", diz à AFP Robert Chesney, um professor de direito na Universidade do Texas que pesquisou o assunto. "Um deepfake oportuno com um roteiro intencional ou uma série desses vídeos poderiam virar uma eleição, acender a violência em uma cidade preparada para a agitação social, impulsar discursos sobre supostas atrocidades de um inimigo ou exacerbar as divisões políticas em uma sociedade", apontaram Chesney e Danielle Citron, professora da Universidade de Maryland, em uma publicação de blog para o Conselho de Relações Exteriores, ainda de acordo com a AFP.

Paul Scharre, membro do Center for a New American Security, think tank especializada em inteligência artificial e questões de segurança, diz que é quase inevitável que os deepfakes sejam utilizados nas próximas eleições dos Estados Unidos, em 2020. Um vídeo falso poderia ser usado para desprestigiar um candidato, adverte Scharre, ou para que as pessoas possam negar fatos expostos em vídeos autênticos. Se circulam vídeos falsos críveis, as "pessoas podem escolher acreditar na versão ou no discurso que quiserem, e essa é a verdadeira preocupação", acrescentou.

O debate sobre a interferência dos vídeos falsos na política norte-americana cresceu após a recusa do Facebook de retirar de sua plataforma um vídeo que foi alterado para que a presidente da Câmara dos Representantes dos Estados Unidos, a democrata Nancy Pelosi, aparentasse estar embriagada. 

Na quarta-feira (26), o CEO da rede social, Mark Zuckerberg, reconheceu que a empresa demorou para sinalizar o vídeo como falso, mas defendeu a decisão de não retirar do ar o conteúdo, que teve mais de 3 milhões de visualizações. “Demorou um pouco para o nosso sistema sinalizar o vídeo e para os nossos verificadores o avaliarem como falso”, disse Zuckerberg. “Durante esse tempo ele [o conteúdo] obteve mais distribuição do que nossas políticas deveriam ter permitido”, continuou o bilionário. Segundo ele, o Facebook “está considerando” desenvolver uma política específica sobre deepfakes.

Leia mais em:

https://theconversation.com/detecting-deepfakes-by-looking-closely-reveals-a-way-to-protect-against-them-119218?utm_medium=email&utm_ca

https://gauchazh.clicrbs.com.br/mundo/noticia/2019/01/videos-deepfake-uma-nova-ameaca-para-a-desinformacao-cjrgprnni009901rus6n0kzm0.html

https://www.cnet.com/news/mark-zuckerberg-defends-facebooks-decision-to-keep-up-doctored-pelosi-video/?utm_source=CJR+Daily+News&utm_campaign=fdb3ca474d-EMAIL_CAMPAIGN_2018_10_31_05_02_COPY_01&utm_medium=email&utm_term=0_9c93f57676-fdb3ca474d-174426941