Expostos a horas de extremismo e aberrações, moderadores do Facebook sofrem com danos psicológicos Reprodução/AP

Expostos a horas de extremismo e aberrações, moderadores do Facebook sofrem com danos psicológicos

A moderação dos conteúdos publicados no Facebook é altamente nociva, conforme revelaram diferentes reportagens nos últimos meses. Esta semana o jornal britânico The Guardian detalhou os problemas psicológicos enfrentados por funcionários da rede social expostos durante oito horas por dia a aberrações e extremismo, mesmo depois de a empresa garantir a melhoria das condições de trabalho.

Funcionários e ex-contratados do Facebook em centros de moderação da plataforma social em Berlim, na Alemanha, contaram ao The Guardian que alguns colegas ficaram "viciados" em conteúdos gráficos (como vídeos e memes), enquanto outros foram condicionados a adotar as ideias proliferadas pela extrema direita, por conta da quantidade de posts com discurso de ódio ao qual foram expostos.  

As fontes do jornal britânico afirmaram terem ficado "deprimidos e entorpecidos pela violência, nudez e bullying" que assistiam nas oito horas diárias de trabalho. Outros consumiram horas de verificação de conversas privadas entre adultos e menores de idade. Os funcionários e ex-colaboradores afirmaram que o facebook não oferece o apoio psicológico. Em alguns casos, segundo relato, funcionários que mostraram os problemas que enfrentavam “foram convidados a sair da empresa".  

Em nota ao The Guardian, o Facebook informou que "fornece o suporte que as pessoas precisam, incluindo treinamento, suporte psicológico e tecnologia para limitar sua exposição ao conteúdo gráfico".   

Nesta terça-feira (17), o Facebook anunciou ter expandido sua definição de organizações terroristas, acrescentando que planejava implantar inteligência artificial para identificar e bloquear melhor vídeos ao vivo de tiroteios. Horas depois, a empresa informou que impediria a publicação de links dos sites periféricos 8chan e 4chan em sua plataforma. No final do dia, detalhou como desenvolveria um conselho de supervisão de 11 integrantes para revisar e supervisionar as decisões de conteúdo.

O Facebook também informou ter pedido às forças de segurança nos Estados Unidos e no Reino Unido que incorporem tecnologia capaz de deter as transmissões ao vivo de ataques extremistas, como aconteceu em março no tiroteio de Christchurch, na Nova Zelândia.

A rede social está sob pressão para limitar a disseminação de mensagens de ódio, fotos e vídeos através de seu site e aplicativos, ressalta o jornal The New York Times. Sendo a maior rede social do mundo, com mais de dois bilhões de usuários, além de proprietária do site de compartilhamento de fotos Instagram e do serviço de mensagens WhatsApp, o Facebook, segundo o diário norte-americano, tem a escala e o público-alvo para a proliferação rápida e global de conteúdo violento.

Este texto foi editado a partir de reportagens dos jornais The Guardian, The New York Times, Zero Hora e Estado de Minas, com informações da AFP. Leia os conteúdos originais nos links abaixo:

https://www.theguardian.com/technology/2019/sep/17/revealed-catastrophic-effects-working-facebook-moderator?utm_term=RWRpdG9yaWFsX01lZGlhQnJpZWZpbmctMTkwOTE4&utm_source=esp&utm_medium=Email&utm_campaign=MediaBriefing&CMP=media_email

https://www.nytimes.com/2019/09/17/technology/facebook-hate-speech-extremism.html

https://gauchazh.clicrbs.com.br/tecnologia/noticia/2019/09/ex-funcionarios-e-atuais-colaboradores-do-facebook-relatam-danos-psicologicos-ck0o8agj007ki01tgxoveifi4.html

https://www.em.com.br/app/noticia/internacional/2019/09/17/interna_internacional,1085857/facebook-pede-ajuda-a-policia-para-deter-transmissoes-de-ataques-extre.shtml