Há um problema com o software de reconhecimento facial: ele não vê raça.
E não no bom sentido, onde todos são iguais e todos somos tratados da mesma forma. Como nele, literalmente, não vê outras raças além das brancas.
Ninguém conhece esse problema melhor do que Henry Gan, que trabalha como engenheiro de software na Gfycat . A empresa obcecada por memes da internet está testando o uso de inteligência artificial e reconhecimento facial para perpetuar esses memes.
Como você pergunta? Eles estão usando o reconhecimento facial para tentar reconhecer a expressão facial das pessoas e, em seguida, comparar isso com um banco de dados de GIFs. Você então envia aquele gif para seus amigos no lugar do seu próprio rosto.
Por que não enviar uma foto do seu próprio rosto? Não é assim que a Internet funciona.
Fale com Henry. Ele instalou o software e começou a brincar com ele pelo escritório para ver se reconhecia bem os rostos dos outros funcionários. Ele descobriu que identificava muito bem todos os funcionários brancos, mas apresentava um problema ao identificar os asiáticos no escritório.
“Isso confundiu alguns de nossos funcionários asiáticos”, disse Gan à revista Wired . “O que foi estranho porque acertou todo mundo corretamente.”
Este não é um problema apenas para o Gyfcat. Como a maioria dos softwares de reconhecimento facial é fornecida por gigantes do software como a Microsoft e a IBM, toda a indústria está lutando contra o problema do preconceito racial no reconhecimento facial.
A maioria dos softwares de reconhecimento facial opera por inteligência artificial, e essa inteligência é tão inteligente quanto as informações que é fornecida. No caso da Gyfcat, eles usaram software de código aberto fornecido pela Microsoft para criar seu próprio programa de reconhecimento facial. Para fazer seu programa, a Microsoft usou milhares de fotos fornecidas pela Universidade de Chicago e Oxford, no entanto, essas fotos eram predominantemente de pessoas com ascendência europeia e muito poucas delas eram de ascendência africana ou asiática.
Como resultado, o software da Gyfcat teve problemas para identificar funcionários asiáticos. “Por causa de como o algoritmo funcionava, eu esperava que fosse universalmente bom”, disse Gan. “Claramente não era o caso.”
Para consertar, Henry teve que desenvolver um “detector asiático” que fez com que o sistema se tornasse mais sensível e usasse limites mais rígidos ao detectar um rosto de ascendência asiática.
“Dizer isso em voz alta soa um pouco como preconceito, mas essa era a única maneira de fazer com que não marcasse todos os asiáticos como Jackie Chan ou algo assim”, diz Gan
O sistema aprimorado do Gyfcat agora é 98% preciso para brancos e 93% para asiáticos – uma grande melhoria, mas em que outras startups de tecnologia terão que investir até que os preconceitos inerentes encontrados em humanos não sejam repassados para nossas contrapartes digitais.
PRÓXIMO: HOUSTON COMEU FEIJÃO E CHICAGO NÃO ESTÁ FELIZ