Senador Cory Booker, um dos autores do projeto de lei Senador Cory Booker, um dos autores do projeto de lei Reprodução

Parlamentares dos EUA querem lei contra algoritmos preconceituosos das gigantes de tecnologia

Parlamentares norte-americanos propuseram na quarta-feira (10) um projeto de lei para exigir que grandes empresas de tecnologia, como Facebook e Google, mantenham sistemas capazes de detectar e eliminar quaisquer preconceitos discriminatórios incorporados em seus modelos de negócios, via web. Recente pesquisa realizada por especialistas da Universidade Northeastern, da Universidade do Sul da Califórnia e pelo grupo de defesa do interesse público Upturn revela que os algoritmos do Facebook exibem determinados anúncios, incluindo os de habitação e emprego, de forma discriminatória, segmentando a publicidade com base em estereótipos de raça, gênero e religião, por exemplo.

O projeto de lei protocolado nesta semana, intitulado Algorithmic Accountability Act, concederia novo poder à Comissão Federal de Comércio dos Estados Unidos (FTC, em inglês) e forçaria as empresas a estudarem se preconceitos raciais, religiosos e de gênero, além de decisões imprecisas, injustas, tendenciosas, sustentam sua tecnologia. As regras se aplicariam a empresas com faturamento anual acima de US$ 50 milhões, bem como a 'data brokers' e empresas com dados de mais de um milhão de consumidores.

"Os computadores estão cada vez mais envolvidos nas decisões mais importantes que afetam a vida dos norte-americanos – se alguém pode ou não comprar uma casa, conseguir um emprego ou até mesmo ir para a cadeia", disse o senador democrata Ron Wyden em um comunicado de imprensa anunciando o projeto. "Mas, em vez de eliminar o preconceito, com frequência esses algoritmos dependem de suposições tendenciosas ou dados que podem realmente reforçar a discriminação contra mulheres e pessoas de cor".

Tecnologia e racismo

O Algorithmic Accountability Act, foi apresentdo por Wyden, o também senador Cory Booker e a deputada Yvette D. Clarke – todos democratas. “Há 50 anos, meus pais encontraram uma prática chamada 'direção imobiliária', em que casais negros eram afastados de certos bairros em Nova Jersey. Com a ajuda de defensores locais e com o apoio da legislação federal, eles prevaleceram”, lembra Booker. “No entanto, a discriminação que minha família enfrentou em 1969 pode ser significativamente mais difícil de ser detectada em 2019: casas que você nunca conhece estão à venda, oportunidades de emprego que nunca se apresentam e financiamento de que nunca se conhece – tudo devido a algoritmos tendenciosos”, advertiu

No início deste mês, o Departamento de Habitação e Desenvolvimento Urbano norte-americano acusou o Facebook de violar o Fair Housing Act, permitindo que os anunciantes discriminassem com base na raça, religião e status de deficiência. No ano passado, a Reuters informou que a Amazon fechou uma ferramenta de recrutamento automatizada que era tendenciosa contra as mulheres.

Discriminatórios mesmo sem pedido do anunciante  

O estudo da Universidade Northeastern, da Universidade do Sul da Califórnia e do Upturn, por sua vez escrutinou uma etapa do processo de publicidade automática do Facebook, na qual a rede social faz os anúncios aparecerem nas telas de determinadas pessoas, conciliando as preferências de segmentação do anunciante com o fluxo de pessoas por meio de aplicativos e páginas da web da plataforma em um determinado período de tempo. Os anunciantes, relatou o The Intercept, podem ver quais audiências acabaram por ver o anúncio, mas nunca têm a permissão de conhecer a lógica subjacente de como aqueles públicos específicos foram selecionados.

“Criticamente, observamos uma significativa distorção na entrega ao longo de linhas de gênero e raciais de anúncios ‘reais’ de oportunidades de emprego e moradia, apesar dos parâmetros de segmentação neutros. Nossos resultados demonstram mecanismos anteriormente desconhecidos que podem levar à entrega de anúncios potencialmente discriminatórias, mesmo quando os anunciantes estabelecem seus parâmetros de segmentação para serem altamente inclusivos”, disseram os pesquisadores.

Doutora em Matemática pela Universidade Harvard e ativista digital, Cathy O’Neil diz que os algoritmos, base do modelo de negócios das empresas do Vale do Silício, são “opiniões fechadas em matemática”. Esses sistemas geram injustiças porque se baseiam em modelos matemáticos concebidos para reproduzir preconceitos, equívocos e vieses humanos. Para ela, é por isso que o big data “aumenta” a desigualdade e "ameaça" a democracia.

Sem neutralidade e com muito poder

O modelo com base em algoritmos, diz a estudiosa, é uma simplificação da realidade, em que são incluídas apenas as coisas consideradas importantes para a tomada de decisão de quem está no controle desses sistemas. “Aqui precisamente, está o perigo. Aqueles que definem quais são os resultados esperados que serão considerados positivos terão em suas mãos todo poder”, afirma ela mais recente relatório do programa Tech & Society, do Aspen Institute España e da Fundación Telefónica.

Dependendo de quem construa esses modelos, quais variáveis são levadas em conta e com que dados os alimente, o resultado será um ou outro, reforça Virginia Eubanks, professora de Ciências Políticas da Universidade de Albany (Nova York) e autora do livro Automating Inequality (Automatizando a desigualdade). “Geralmente achamos que os algoritmos são neutros, mas não é assim. Os vieses são estruturais e sistêmicos, têm pouco a ver com uma decisão individual”, diz.

“Estamos transferindo nossa confiança da matemática para certos modelos que não entendemos como funcionam. Por trás deles há sempre uma opinião, alguém que decide o que é importante”, alerta Cathy O’Neil em recente entrevista ao jornal El País. “Se olharmos as redes sociais, há vieses. Por exemplo, os conteúdos são ordenados em função de quem fala mais no Twitter ou no Facebook. Isso não é matemática, são discriminações feitas por humanos. A pessoa que desenvolve o algoritmo define o que é o sucesso”,

A autora do livro Weapons of Math Destruction (“armas de destruição matemática”, um trocadilho com a expressão “armas de destruição em massa”, como relatou o El País), afirmou que por trás dos algoritmos estão especialistas capazes de lidar com fórmulas lógicas e com conhecimentos de programação, estatística e matemática. “Sabem traduzir a forma de pensar dos humanos para os sistemas de processamento de dados. Muitos deles ganham muito dinheiro com isso e, embora do ponto de vista técnico sejam capazes de detectar essas falhas, preferem não pensar nisso”.

Em empresas como o Google, exemplificou Cathy, há quem se dê conta, mas, se manifestarem seu compromisso com a justiça, os advogados da companhia lhes farão se lembrar do compromisso com os acionistas. “É preciso maximizar os lucros. Não há incentivos suficientes para transformar o sistema, para torná-lo mais justo. O objetivo ético não costuma ir acompanhado de dinheiro”.

Sistemas elitistas

Outro problema vem da automatização dos processos de seleção, enfatiza Cathy, que está crescendo entre 10% e 15% ao ano. Nos Estados Unidos, já são usados com 60% dos trabalhadores em potencial, e 72% dos currículos não chegam a ser analisados por pessoas. “Os algoritmos costumam castigar os pobres, enquanto os ricos recebem um trato mais pessoal”.

Um escritório de advocacia renomado ou um colégio privado de elite, exemplifica Cathy, se basearão mais em recomendações e entrevistas pessoais durante os processos de seleção do que uma rede de fast-food. Os privilegiados são analisados por pessoas, e as massas, por máquinas”.

Se você quiser trabalhar num call center ou como caixa, enfatiza a cientista, tem que passar por um teste de personalidade. “Para um cargo no Goldman Sachs há uma entrevista. Sua humanidade é levada em conta para um bom trabalho. Para um emprego de salário baixo, você é simplesmente analisado e categorizado. Uma máquina lhe etiqueta”.

Leia mais em:

https://www.wyden.senate.gov/news/press-releases/wyden-booker-clarke-introduce-bill-requiring-companies-to-target-bias-in-corporate-algorithms-?utm_campaign=Newsletters&utm_source=sendgrid&utm_medium=email

https://theintercept.com/2019/04/05/facebook-como-maquina-de-preconceito/

https://brasil.elpais.com/brasil/2018/04/12/tecnologia/1523546166_758362.html

https://brasil.elpais.com/brasil/2018/11/12/tecnologia/1542018368_035000.html