Uso de inteligência artificial no combate a deepfakes agrava o problema, alerta estudo Reprodução/Data & Society Research Institute

Uso de inteligência artificial no combate a deepfakes agrava o problema, alerta estudo

A inteligência artificial (IA) não é o melhor caminho para solucionar o problema dos deepfakes, vídeos manipulados e espalhados nas redes sociais como se fossem reais, diz novo estudo  do Data & Society Research Institute. A pesquisa, conduzida pelas especialistas em mídia Britt Paris e Joan Donovan, afirma que o combate aos vídeos fraudulentos exige a ação humana e uma correção social e técnica, além da aplicação de tecnologia. Depender da IA pode até piorar o cenário, ao concentrar ainda mais dados e poder nas mãos empresas de tecnologia.

"A relação entre mídia e verdade nunca foi estável", diz o estudo, que mostra como esse tipo de falsificação não é exatamente uma nova ameaça à democracia. Na Guerra do Golfo, por exemplo, segundo a pesquisa, algumas reportagens televisivas construíram um conflito entre equilibrado ao não mostrar o desigual número de mortes entre as forças dos Estados Unidos e do Iraque. "Eram imagens reais", diz o relatório. "O manipulador foi como eles foram contextualizados, interpretados e transmitidos 24 horas por dia na televisão a cabo."

Hoje, diz o estudo, os deepfakes levaram a manipulação ainda mais longe, permitindo que as pessoas alterem vídeos e imagens usando o aprendizado de máquina, com resultados quase impossíveis de detectar com o olho humano. Qualquer pessoa com um perfil público em mídia social pode clonada, lembra o relatório.

Em paralelo, as empresas digitais como o Facebook anunciam medidas com base em IA para enfrentar o problema. Mas quase todas essas soluções, segundo o site The Verge, visam combater a manipulação no ponto de captura (ou seja, quando uma foto ou vídeo é tirado) ou no nível de detecção (para facilitar a diferenciação entre o conteúdo medicado e o não monitorado).

As pesquisadoras temem que os filtros de conteúdo orientados pela IA e outras correções técnicas possam causar danos reais. "Eles melhoram as coisas para alguns, mas podem piorar para outros", diz Paris. O estudo argumenta que as soluções devem levar em conta a história da evidência e os “processos sociais que produzem a verdade” (como o jornalismo) para que o poder da perícia não esteja apenas nas mãos de poucos e reforce a desigualdade estrutural. "A mídia exige que o serviço social seja considerado uma evidência", destaca a pesquisa.

Leia aqui o resumo original do estudo. Baixe o estudo compleo neste link. Leia aqui a reportagem do The Verge.