Algoritmos seguem discriminações feitas por humanos e aumentam a desigualdade, diz doutora em matemática formada em Harvard Reprodução/EL PAÍS

Algoritmos seguem discriminações feitas por humanos e aumentam a desigualdade, diz doutora em matemática formada em Harvard

Os algoritmos, base do modelo de negócios das empresas do Vale do Silício que atuam na internet, geram injustiças porque se baseiam em modelos matemáticos concebidos para reproduzir preconceitos, equívocos e vieses humanos. Essa é a opinião de Cathy O’Neil, doutora em matemática pela Universidade Harvard, para quem o big data “aumenta” a desigualdade e "ameaça" a democracia.

“Estamos transferindo nossa confiança da matemática para certos modelos que não entendemos como funcionam. Por trás deles há sempre uma opinião, alguém que decide o que é importante. Se olharmos as redes sociais, há vieses. Por exemplo, os conteúdos são ordenados em função de quem fala mais no Twitter ou no Facebook. Isso não é matemática, são discriminações feitas por humanos. A pessoa que desenvolve o algoritmo define o que é o sucesso”, disse a cientista em entrevista ao El País.

Lucros maximizados

A autora do livro Weapons of Math Destruction (“armas de destruição matemática”, um trocadilho com a expressão “armas de destruição em massa”, como relatou o jornal espanhol), e também assessora de start-ups afirmou que por trás dos algoritmos estão especialistas capazes de lidar com fórmulas lógicas e com conhecimentos de programação, estatística e matemática. “Sabem traduzir a forma de pensar dos humanos para os sistemas de processamento de dados. Muitos deles ganham muito dinheiro com isso e, embora do ponto de vista técnico sejam capazes de detectar essas falhas, preferem não pensar nisso”.

Em empresas como o Google, exemplificou Cathy, há quem se dê conta, mas, se manifestarem seu compromisso com a justiça, os advogados da companhia lhes farão se lembrar do compromisso com os acionistas. “É preciso maximizar os lucros. Não há incentivos suficientes para transformar o sistema, para torná-lo mais justo. O objetivo ético não costuma ir acompanhado de dinheiro”.

Cathy criticou o fato de os algoritmos serem “opacos,” inclusive para os que os desenvolvem, que, muitas vezes, não são suficientemente pagos para entender como funcionam. Tampouco comprovam se cumprem as leis. “Os Governos devem legislar e definir, por exemplo, o que torna um algoritmo racista ou sexista”, defendeu a especialista.

Fugindo da responsabilidade

A cientista alerta para outra arapuca dos modelos com base em algoritmos: a economia feita a partir da redução de estruturas, cortando pessoal e otimizando análises de dados via máquinas avançadas. O mais importante (ou problemático) nisso, disse Cathy, é que o uso dos algoritmos evita a responsabilidade. “Quando você usa um algoritmo, o fracasso não é sua culpa. É da máquina”.

Cathy contou que trabalhou para a Prefeitura de Nova York enquanto pesquisava para escrever seu livro. A administração, na época, desenvolvia um sistema de ajudas para os sem-teto, mas não demonstrava real interesse de melhorar as vidas dessas pessoas, destacou a especialista, e sim em não fracassar nas suas políticas.

“Aconteceu o que queriam evitar: o The New York Times publicou um artigo sobre a morte de uma criança em consequência de uma falha nessa rede de ajuda. A culpa era do algoritmo, que não tinha calculado bem. Acho que não deveríamos deixar as administrações usarem algoritmos para se esquivar da responsabilidade”.

Máquinas elitistas que etiquetam os pobres

Outro problema vem da automatização dos processos de seleção, enfatiza Cathy, que está crescendo entre 10% e 15% ao ano. Nos Estados Unidos, já são usados com 60% dos trabalhadores em potencial, e 72% dos currículos não chegam a ser analisados por pessoas. “Os algoritmos costumam castigar os pobres, enquanto os ricos recebem um trato mais pessoal”.

Um escritório de advocacia renomado ou um colégio privado de elite, exemplifica Cathy, se basearão mais em recomendações e entrevistas pessoais durante os processos de seleção do que uma rede de fast-food. Os privilegiados são analisados por pessoas, e as massas, por máquinas”.

Se você quiser trabalhar num call center ou como caixa, enfatiza a cientista, tem que passar por um teste de personalidade. “Para um cargo no Goldman Sachs há uma entrevista. Sua humanidade é levada em conta para um bom trabalho. Para um emprego de salário baixo, você é simplesmente analisado e categorizado. Uma máquina lhe etiqueta”.

Leia a entrevista na íntegra em:

https://brasil.elpais.com/brasil/2018/11/12/tecnologia/1542018368_035000.html