• Sandra Carvalho

Vamos conhecer um criminoso pelo rosto? Nãaao!

Pesquisadores da Pensilvânia tentaram, e foram soterrados por acusações de racismo.


Identificação de criminosos pelo rosto: na linha de tiro | Imagem: cc0 Gerard Altmann/Pixabay

Três pesquisadores da Universidade de Ciência e Tecnologia Harrisburg (HU), da Pensilvânia, desenvolveram um software de reconhecimento facial para identificar criminosos em potencial. Achavam que o programa, baseado em rede neural, tinha 80% de acuidade e % de preconceitos raciais.


A ideia era publicar seu trabalho numa série de livros da editora Springer, Transactions on Computacional Science and Computacional Intelligence. Mas o que parecia a eles uma perspectiva promissora se transformou num dos maiores vexames da controvertida história do reconhecimento facial.


Acadêmicos das áreas de tecnologia e inteligência artificial do MIT e das universidades de Nova York, McGill e Rensselaer se organizaram num grupo, batizado de Coalizão por uma Tecnologia Crítica, e escreveram uma carta à Springer pedindo o cancelamento da publicação.


Tiveram a adesão de mais de mil colegas. Eles tacharam a tentativa de predizer criminosos de fisiognomia 2.0.


Para refrescar a memória, a fisiognomia, técnica de interpretar uma personalidade pelo rosto, tem origem milenar. Nos últimos séculos deu base para as mais variadas linhas de racismo "científico", como a caracterização de raças superiores e inferiores.


A universidade, que tinha anunciado o software de predição de criminosos com algum destaque, tirou seu comunicado do ar.


"Não existem padrões de traços faciais da criminalidade. Ter um rosto com certa aparência não faz um indivíduo cometer um crime."

Os três pesquisadores do software de predição de criminosos são ilustres desconhecidos - pelo menos eram, até agora. Um deles é um veterano da polícia de Nova York: Jonathan Korn, que faz doutorado na HU.


Os outros são professores na universidade: Nathaniel Ashby, da área de Análise Cognitiva, e Roozbeh Sadeghian, de Análise de Dados.


"Nós já sabemos que as técnicas de aprendizado de máquina podem superar os humanos numa variedade de tarefas em relação a reconhecimento facial e detecção de emoções", observou Sadeghian num comunicado da HU, antes de o barco fazer água. "Essa pesquisa indica apenas quão poderosas essas ferramentas são, mostrando que elas podem extrair traços detalhados que são altamente preditivos de criminalidade."


A carta da Coalizão por uma Tecnologia Crítica tem argumentos poderosos contra o software de identificação de criminosos.


Para começar, lembra que não existe na natureza um padrão de traços faciais da criminalidade - ter um rosto com certa aparência não faz com que uma pessoa cometa um crime.


A carta afirma que os sistemas de aprendizado de máquina têm uma propensão estrutural de ampliar as formas de discriminação, através de vieses algorítmicos de raça, classe e gênero.


Recorda que o aprendizado de máquina não é neutro - as agendas de pesquisa e os conjuntos de dados são moldados pela cultura dominante, mesmo que os pesquisadores não tenham má intenção nem preconceitos raciais.


A aceitação sem crítica de premissas default, portanto, levaria à legitimação da violência contra grupos marginalizados, sublinha.


"Dados gerados pelo sistema de justiça criminal não podem ser usados para " identificar criminosos" ou predizer comportamento criminoso. Nunca."

A Coalizão por uma Tecnologia Crítica supõe que o software da HU vá usar dados da justiça criminal - que tampouco são neutros.


Esses dados refletem quem os policiais decidem prender, como os juízes decidem julgar, quem recebe as sentenças mais leves ou mais pesadas, que informações o sistema carcerário decide registrar.


"Inúmeros estudos têm mostrado que pessoas de cor são tratadas de forma mais dura que pessoas brancas em situações similares em todos os estágios do sistema legal", diz a carta.

"Assim, qualquer software construído dentro da estrutura criminal legal irá inevitavelmente ecoar os mesmos preconceitos e incorreções quando determinar se uma pessoa tem 'o rosto de um criminoso'."


Para a Coalização, dados gerados pelo sistema de justiça criminal não podem ser usados nunca para identificar criminosos ou predizer comportamento criminoso.


A carta não invalida toda tentativa de reconhecimento facial - aponta inclusive a existência de áreas em que o aprendizado de máquina fez grande progresso, como no caso de verificação facial. O que os signatários criticam é a tentativa de identificar "rostos criminosos".


Veja mais: Rostos falsos ou reais? É difícil saber


#AprendizadodeMáquina #Brancos #HU #IA #Negros #Racismo #ReconhecimentoFacial