Inteligência Artificial e Ética: Algoritmos podem ser racistas?

##plugins.themes.bootstrap3.article.main##

Arianne Sarmento Torcate
Sergio Murilo Maciel Fernandes
Wellington Pinheiro dos Santos

Resumo

A Inteligência Artificial (IA) está cada vez mais presente no cotidiano das pessoas, tendo aplicações e finalidades diversas. Em paralelo, surge o campo da Visão Computacional (VC), apontado por Silva (2019) como uma área em potencial justamente pela capacidade de reconhecer objetos ou extrair características de imagens. Dentre as possibilidades resultantes da interseção dessas duas áreas, este trabalho faz recorte ao Reconhecimento Facial (RFA) e a Classificação de Imagens. O RFA nada mais é que uma técnica não invasiva utilizada para reconhecer pessoas, sendo cada vez mais utilizada para identificar terroristas, criminosos e traficantes (Diniz, 2016). A classificação de imagens tem como objetivo, segundo Freitas e Pancher (2011), extrair informações de imagens para reconhecer padrões ou descobrir agrupamentos naturais para um contexto específico. No entanto, junto ao avanço dessas tecnologias surgem problemas, por exemplo, pesquisas (Carrera e Carvalho, 2020; Silva e Silva, 2019) na literatura apontam situações de cunho racista e discriminatório na utilização de RFA, onde os algoritmos não estão isentos de reproduzir preconceitos e interesses, justamente devido ao training data responsável por fazer com que os mesmos aprendam. O estudo de Silva (2019) evidencia que os softwares de RFA tendem a não reconhecer com precisão as pessoas negras com a mesma capacidade que reconhecem pessoas brancas, sendo que essa imprecisão é ainda maior em relação ao reconhecimento de mulheres negras. Com isso, Buolamwini e Gebru (2018) reforçam que um erro de RFA pode ter consequências graves, como por exemplo, indiciar alguém injustamente por um crime com base numa identificação errada e discriminatória. Dentre os casos de racismo algorítmico mais famosos e amplamente expostos no estudo de Silva (2019), pode-se destacar: Google marcou pessoas negras como gorilas; APIs de análise de expressões faciais associam sentimentos negativos a pessoas negras; O Google Vision confunde cabelos negros com perucas; Carros autônomos tem mais chances de atropelar pessoas negras; Faceapp embranquece peles para deixar a selfie “mais bonita”; dentre outros. As causas responsáveis por tais situações são diversas, como por exemplo, base de dados insuficiente, falta de representatividade nas equipes de desenvolvimento de software e, associações racistas intencionais. Diante do contexto apresentado, este estudo tem como objetivo levantar uma discussão acerca da problemática relatada e também realizar experimentos de classificação de imagens de pessoas brancas e negras utilizando o software Orange Data Mining Canvas, o intuito é comparar a precisão e assertividade da classificação realizada. Para isso, na metodologia experimental, foi montado um dataset de forma manual com 500 imagens disponibilizadas pelo Generated Photos, este dataset foi utilizado para treinar os algoritmos Logistic Regression e Neural Network, ambos utilizados nos experimentos. Através dessa mesma fonte de dados, para etapa de classificação, foi montado um dataset de 100 imagens que foram rotuladas da seguinte forma: 25 homens brancos, 25 homens negros, 25 mulheres brancas e 25 mulheres negras, totalizando 100. Sabendo disso, dois experimentos foram realizados, sendo que o primeiro teve como objetivo classificar as 100 imagens por gênero, ou seja, homens e mulheres independentemente do tom de pele. O segundo experimento teve como objetivo classificar as imagens por categorias, sendo que ao todo foram quatro, são elas: Homens Brancos, Mulheres Brancas, Homens Negros e Mulheres Negras. Os resultados do primeiro experimento não foram satisfatórios, pois os algoritmos não conseguiram classificar por gênero. O software Orange Data Mining criou automaticamente dois clusters (C1 e C2), mas na análise foi possível identificar que o C1 era composto por 14 imagens (14/100), sendo 12 mulheres negras e 2 homens negros, onde a única similaridade encontrada entre as imagens foi justamente o tom mais escuro da pele e os cabelos crespos mais volumosos em relação ao restante das imagens agrupadas no C2. Já nos resultados do segundo experimento, onde o objetivo era classificar as imagens por categorias, foi possível identificar um avanço significativo em relação aos resultados obtidos no primeiro experimento, onde todos os 25 homens brancos e as 25 mulheres brancas foram classificadas corretamente. Porém, dos 25 homens negros, 2 deles foram classificados como mulheres negras e, das 25 mulheres negras, 7 delas foram classificadas como homens negros. É válido mencionar que em ambos os experimentos o algoritmo Logistic Regression apresentou melhor desempenho em relação ao Neural Network para as classificações, tendo destaque na acurácia (0.994), precisão (0.998) e índice recall (0.994). Porém, mesmo diante do bom desempenho do algoritmo, as imagens de homens negros e, principalmente, mulheres negras obtiveram uma discrepância na classificação. Por fim, visto que o RFA está sendo cada vez mais aderido para fins de segurança pública, é necessário e urgente que esses sistemas sejam tolerantes a esse tipo de falha, pois estão lidando diretamente com a vida de pessoas, onde qualquer identificação errônea pode impactar negativamente e ocasionar consequências graves. Por estes motivos e evidências apresentadas ao longo deste resumo, destacamos a necessidade de fortalecer este debate.

Downloads

Não há dados estatísticos.

##plugins.themes.bootstrap3.article.details##

Seção
Engenharia da Computação e Sistemas