Os documentos mostraram como a IA confunde coisas simples para qualquer ser humano

A maior parte do trabalho de moderação nas redes sociais é feito pelos algoritmos alimentados por inteligências artificiais especificamente projetadas para executar ações como bloquear determinados tipos de conteúdo e enaltecer outros. O Facebook tem essa promessa desde novembro de 2018 e, de fato, tem lutado para implementá-la, embora ainda falte refinamento para que tudo funcione com mais precisão.

Até março de 2021, documentos internos da rede obtidos pelo Wall Street Journal revelaram que as ferramentas automatizadas de moderação só foram responsáveis por remover entre 3% e 5% de vídeos com discurso de ódio e apenas 0,6% dos materiais com violência. Embora possa parecer pouco, a plataforma afirma ter removido 15 vezes mais conteúdos com eficácia em 2020 do que em 2017, uma prova da evolução do modelo, mas ainda longe da prometida eficácia.

Os documentos também mostraram como a IA confunde coisas simples para qualquer ser humano: brigas de galos, por exemplo, foram erroneamente sinalizadas como um acidente de carro, enquanto vídeos ao vivo de tiroteios em massa foram rotulados pela IA como jogos de paintball ou uma ida a um lava à jato. Isso ocorre porque a máquina tenta associar elementos do vídeo com sua base de dados, o que obviamente nem sempre dá certo.

Essas confusões citadas teriam ocorrido com conteúdos na língua inglesa, a mais falada no mundo, mas pode ser ainda pior em outros idiomas. O relatório obtido apontou a falta um dicionário de termos “proibidos” para os idiomas falados no Afeganistão, razão pela qual a IA só conseguiu identificar 0,23% dos discursos de ódio no país.

Os dados são obtidos a partir da amostragem de materiais específicos sobre os quais as ferramentas de moderação de IA são aplicadas e depois comparados com a ação dos humanos. Com base na quantidade de acertos, dá para mensurar quanto de discurso de ódio ou outras práticas foram corretamente banidas, quantas foram classificadas de modo errado e os casos omissos.

A remoção automatizada não é apenas uma questão de praticidade, mas impacta também no lucro da empresa, afinal os moderadores humanos custaram US$ 104 milhões em 2019, conforme a apuração do jornal estadunidense. Cerca de 75% desses funcionários tinha o único objetivo de responder aos relatórios de denúncias encaminhados por usuários e impusesse uma meta de reduzir em até 15% o custo total das operações.

FONTE: Canaltech | FOTO: Pixabay