Notícias

Como podemos ensinar a tecnologia a não ser racista

Imagem: Freepik

A adesão dos diferentes tipos de mercados ao uso de ferramentas de biometria facial é um tópico que vem sendo debatido cada vez mais dentro da grande mídia. Esse tipo de tecnologia, que, de acordo com Allied Market Research, deve movimentar uma soma de mais de R$ 50 bilhões em 2022, é prática, eficiente e pode ser aplicada nos mais diversos setores da indústria, como na Saúde, com o monitoramento ativo dos pacientes para entregar soluções mais assertivas e humanizadas; em empresas, na gestão de pontos de funcionários; e no setor de Segurança Pública, ajudando a identificar foragidos da justiça. No entanto, na mesma medida em que esses sistemas se desenvolvem e multiplicam, devemos ficar atentos à maneira como ensinamos as máquinas, para que não se tornem parte de um mecanismo de retroalimentação de uma sociedade desigual e, muitas vezes, racista.

Assim como dito anteriormente, uma das aplicações da tecnologia de Reconhecimento Facial está no setor de Segurança Pública. Diferentes regiões e estados do país, como a Bahia, têm investido na incorporação dessa tecnologia para servir como aliada no trabalho dos profissionais da área de segurança, realizando, a partir das câmeras instaladas em locais públicos, a identificação de suspeitos e foragidos. No entanto, também tem se mostrado recorrente os casos de falha e equívoco que esses sistemas apresentam ao analisar a face de pessoas e contribuir com investigações. Recentemente, tivemos um caso inusitado no qual o ator norte-americano, Michael B. Jordan, conhecido por sucessos como “Creed” e “Pantera Negra”, foi indicado, erroneamente, como um dos suspeitos de participar de uma chacina que ocorreu no Ceará. A foto do ator esteve ao lado dos suspeitos de cometer o crime.

Esse é um caso que ganhou notoriedade e que foi tratado por muitos por um viés cômico, porém, ressalta muito bem o impacto que a tecnologia de Reconhecimento Facial pode causar social e legalmente, principalmente à população negra e asiática, se não for ensinada da maneira correta. Em um país como o Brasil, no qual a maioria da população carcerária é composta por pessoas negras, a porcentagem da população prisional que se considera negra é de 66,3%, como revela o 15º Anuário Brasileiro de Segurança Pública, divulgado em 2021 pelo Fórum de Segurança Público, é importante fazer um exercício crítico e avaliar como podemos implementar nossos softwares de uma maneira que não sirva para aumentar esses números equivocadamente.

Antes de falar sobre o motivo das falhas e o que podemos fazer para preveni-las, é importante abordar como funciona a Biometria Facial. O Reconhecimento Facial é uma tecnologia desenvolvida com o propósito de identificar pessoas a partir de padrões da face. Isso é feito por meio do uso de Inteligência Artificial, que, por sua vez, é desenvolvida e alimentada através de machine learning, o processo de aprendizado da máquina. A tecnologia utiliza algoritmos matemáticos para analisar os diferentes pontos da face, específicos para cada indivíduo. O resultado desse processo é um código capaz de identificar a pessoa.

O problema que analisamos nessa conversa acontece justamente no processo de aprendizado das máquinas, o machine learning. Muitas empresas que trabalham com o desenvolvimento de programas de Reconhecimento Facial utilizam um banco de imagens com pouca diversidade, compostos, na maioria das vezes, por homens e mulheres brancos. A falta de repertório necessário para o processo de mapeamento das faces é o que causa o problema em debate. Muitas vezes, as máquinas que foram viciadas em um único viés entregam matchs errados ou são incapazes de analisar rostos negros ou asiáticos, por exemplo.

O resultado de tudo isso já pode ser visto, não apenas no Brasil, como também no restante do mundo. Casos de acusações e prisões injustas trazem um impacto físico e moral em quem é prejudicado por sistemas que foram desenvolvidos de maneira enviesada. Não apenas isso, mas em um país miscigenado como o Brasil, não incluir a diversidade de faces que nos cercam é negar o acesso da população às tecnologias e ferramentas que vão ser fundamentais para o nosso futuro.

É válido ressaltar que as máquinas não têm nenhum tipo de consciência própria e, apesar do que a ficção científica indica, não devem ter, pelo menos em um futuro próximo. Portanto, cabe a nós, humanos por trás das telas, investirmos em sua aprendizagem. Faremos isso trazendo maior diversidade às suas referências e aos seus bancos de imagem. A igualdade também é um direito no ambiente virtual e devemos lutar por ela.

Para quem se interessou pelo debate, um bom material de estudo é o documentário Coded Bias (2020), disponível na Netflix.

Victor Gomes é CEO da Gryfo

Fonte: Olhar Digital