Publicidade
Coluna Jaime De Paula | A face tecnológica do preconceito
11 de Janeiro de 2023

Coluna Jaime De Paula | A face tecnológica do preconceito

Os algoritmos não devem ser uma extensão de opiniões, valores e padrões sociais.

Publicidade
Por Jaime de Paula 11 de Janeiro de 2023 | Atualizado 11 de Janeiro de 2023

 

À medida que a tecnologia de reconhecimento facial ganha espaço em sistemas de segurança, crescem também as críticas sobre o uso e as repercussões na sociedade. As injustiças sociais e discriminações raciais que esta inovação pode gerar têm sido alvo de debates calorosos, porém necessários. Sou do time que defende a aplicação responsável do reconhecimento facial por Inteligência Artificial, pautada em regras e leis específicas que resguardem os direitos dos cidadãos. O seu potencial é inegável e acredito que a segurança pública pode – e deve – se beneficiar do seu uso. No entanto, a tecnologia precisa urgentemente ser aprimorada, pois ainda apresenta imperfeições e uma margem considerável de erros contra pessoas inocentes.

Publicidade

O centro das discussões sobre o reconhecimento facial se deve, principalmente, às injustiças que a tecnologia tem cometido ao indetificar equivocadamente negros e outros grupos minoritários como criminosos. Afinal, por trás dos algoritmos existe alguém que os criou e, por isso, muito se tem debatido dos riscos da ferramenta ser baseada em preconceitos, incluindo o racismo. Realmente estamos diante de uma linha tênue e que nos alerta para os cuidados e um rigor ainda maior na concepção destes algoritmos sob risco de estarmos alimentando a discriminação racial contra imagens e conteúdos digitais de pessoas negras, idosos e pessoas com deficiência.

 

 

Para exemplificar melhor como essa discriminação pode acontecer, vamos entender como o reconhecimento facial funciona. Em resumo, a tecnologia é baseada em Inteligência Artificial que identifica e verifica, por meio de dados, a identidade de uma pessoa pela imagem do seu rosto. Esse sistema é capaz de comparar um rosto humano com uma imagem digital. Mas como isso ocorre? Usando o critério da compatibilidade de traços faciais de uma determinada pessoa com um banco de imagens. São dezenas de aspectos analisados, como o formato do rosto, a distância entre os olhos, o espaço entre o nariz e a boca, entre outros. Olhando sob essa perspectiva o sistema parece perfeito, no entanto, as desigualdades se refletem através dos algoritmos e de quem os definiu.

Os algoritmos não devem ser uma extensão de opiniões, valores e padrões sociais. No mundo ideal – e é por isso que precisamos lutar – a tecnologia precisa ser neutra e não reforçar a lógica racista e preconceituosa, fugindo dos estereótipos. O desafio está em encontrar o equilíbrio na aplicação destas inovações ao mesmo tempo em que protege os direitos individuais. Para isso, é essencial estabelecer uma regulamentação eficaz para garantir que estas tecnologias sejam usadas de maneira responsável e justa, além do controle e melhoria contínua dos algoritmos. O uso indevido dos dados por parte dos governos, como a vigilância em massa e a falta de privacidade, também necessita ser enquadrado em legislações específicas.

Em 2020, a polícia de Detroit (EUA) prendeu um homem acusado de roubar uma loja de luxo, só que ele era inocente. Sua prisão foi baseada na identificação via software de reconhecimento facial, que comparou a foto dele com a imagem do homem que aparecia no vídeo de vigilância da cena do crime – tanto o suspeito quanto a pessoa presa por engano eram negros. Um estudo do Instituto Nacional de Padrões e Tecnologia, realizado em 2019, revelou que algoritmos têm uma taxa 100 vezes maior de resultados incorretos na identificação de pessoas negras e asiáticas. Outro estudo do Massachusetts Institute of Technology (MIT) também mostrou que os algoritmos trazem mais falsos positivos entre mulheres e negros. Por que isso ocorre? Justamente porque os sistemas apresentam menos imagens de pessoas neste perfil gerando algoritmos enviesados que não representam toda a amplitude da população. Amostragens como essas deixam claro que o reconhecimento facial precisa passar por reformulações para que a sua aplicação em segurança, especificamente, seja transparente e assertiva.

Talvez seja utópico chegar em 100% de acerto, mas perto disso é o mínimo para que possamos colher os bons frutos do uso deste tipo de tecnologia. Segundo testes do Instituto Nacional de Padrões e Tecnologia dos Estados Unidos, o melhor algoritmo de identificação facial tem uma taxa de erro de apenas 0,08%, porém as condições precisam estar ideais, como a luminosidade, a pessoa estar de frente para câmera e os traços faciais estarem claros – a taxa de erro em capturas ao acaso pode chegar a 9,3%.

Desde que foi desenvolvido, em 1960, o reconhecimento facial percorreu um longo caminho e faço questão de afirmar que mesmo diante das suas incorreções, a tecnologia não é a grande vilã e, na maioria das vezes, vem para somar. Lá atrás, o sistema era incapaz de diferenciar irmãos ou mudanças no rosto de uma pessoa que envelheceu, por exemplo. Hoje já estamos em outro patamar e a IA é capaz de identificar alguém usando máscara, chapéu ou óculos escuro. Obviamente, as tecnologias evoluem e o mesmo tem acontecido com o reconhecimento facial. Aposto nas próximas evoluções para que se torne cada vez mais efetivo e livre de preconceitos e amarras sociais.

É fato que as plataformas de reconhecimento são mais propensas a cometer erros ao tentar identificar aqueles que pertencem a um grupo minoritário. A tecnologia é incrível, mas para que o seu uso avance de forma eficiente, questões estruturais da sociedade, como o racismo, precisam ser revistas, conscientizadas e debatidas exaustivamente. A raiz do preconceito está na nossa história, nos nossos antepassados e em cada um de nós. A tecnologia é a ponta do iceberg… O desejo é de que, num futuro não tão distante, todos os sistemas baseados no reconhecimento facial resultem numa sociedade mais justa e igualitária, garantindo o respeito à privacidade e aos direitos individuais.

Obrigado pela leitura e até a próxima!

Publicidade
Publicidade