Executivo do Facebook, sob pressão para buscar soluções ao ódio na rede social, chora em entrevista ao NYT Reprodução

Executivo do Facebook, sob pressão para buscar soluções ao ódio na rede social, chora em entrevista ao NYT

O diretor de tecnologia do Facebook, Mike Schroepfer, chorou várias vezes em recente entrevista ao jornal The New York Times sobre a forma como a rede social trata os conteúdos violentos e ofensivos postados em sua plataforma.

O executivo "engasgou" ao falar sobre a pressão que o Facebook está enfrentando e suas responsabilidades em relação ao conteúdo extremista, relatou o jornal norte-americano. "Não será consertado amanhã", disse Schroepfer. "Mas eu não quero ter essa conversa novamente daqui a seis meses. Podemos fazer um trabalho muito melhor de conseguir isso."

Conhecido por "muitas vezes" mostrar seus sentimentos ao público, Schroepfer foi encarregado de criar ferramentas de inteligência artificial (IA) para o Facebook que funcionariam melhor para detectar conteúdo prejudicial, e pode impedir que algo como o tiroteio de Christchurch seja transmitido novamente no Facebook.

Para descobrir como a tecnologia pode identificar melhor o próximo vídeo relacionado ao terrorismo, Schroepfer teve que assistir a cenas horríveis do tiroteio "várias vezes", segundo o The New York Times. O executivo disse que sua tarefa de remover mensagens prejudiciais é complexa e sem um "fim de jogo".

As críticas à ineficácia do Facebook no combate ao ódio online aumentaram desde o ataque terrorista de março em Christchurch, na Nova Zelândia. No caso dos países emergentes, os períodos eleitorais mais recentes mostram que este final de jogo está mais longe para o Facebook e seu aplicativo de mensagens WhatsApp. A eleição na Índia, que terminou no último domingo (19) – o resultado será conhecido na próxima quinta-feira (23) –, por exemplo, foi marcada pela disseminação de mensagens falsas em massa.

A Índia, que tem cerca de 900 milhões de eleitores, é particularmente desafiadora por uma série de peculiaridades, como o fato de o país ter 23 idiomas oficiais. O Facebook contratou verificadores de fatos de dez desses idiomas, mas eles não conseguem trabalhar em milhões de postagens em mais de uma dúzia de outros idiomas. Além disso, há na Índia um número alto de usuários de redes sociais que compartilham postagens indiscriminadamente, em alta velocidade, em especial porque não sabem diferenciar o verdadeiro do falso.

Leia mais em:

https://www.businessinsider.com/facebook-cto-mike-schroepfer-cried-nyt-interview-violent-content-2019-5?nr_email_referer=1&utm_source=Sailthru&utm_medium=email&utm_content=Tech_select

https://www.nytimes.com/es/2019/05/20/facebook-inteligencia-artificial-contenido-toxico/?action=click&clickSource=inicio&contentPlacement=4&module=toppers&region=rank&pgtype=Homepage

https://www.bloomberg.com/news/articles/2019-05-20/alarming-lessons-from-facebook-s-push-to-stop-fake-news-in-india?utm_source=Daily+Lab+email+list&utm_campaign=3e5014934d-dailylabemail3&utm_medium=email&utm_term=0_d68264fd5e-3e5014934d-386384393