Por uma Inteligência Artificial antirracista: conheça o trabalho do Aqualtune Lab
Uso de IA no Brasil afeta principalmente a população negra; organização oferece formações on-line sobre o tema em todo país
Para alertar a população sobre a relação entre tecnologia e racismo, o coletivo jurídico Aqualtune Lab vem promovendo formações on-line sobre os efeitos do uso da Inteligência Artificial na vida de pessoas negras em todo Brasil. Do reconhecimento facial, passando pelos filtros usados nas redes sociais até armas autônomas, tudo é feito por algoritmos que simulam o raciocínio humano com base em padrões aprendidos.
Por isso, é preciso ficar atento: os algoritmos podem reproduzir condutas preconceituosas, influenciando decisões que prejudicam especialmente a população negra. As formações são direcionadas às organizações do terceiro setor, com informações tanto do campo do direito como da tecnologia da informação. O Aqualtune Lab integra, por exemplo, a Coalizão Negra por Direitos e a Coalizão Direitos na Rede.
“Quando falamos de tecnologia, a maioria das pessoas não tem objeção, acha que a tecnologia é boa por si e em si. Mas o que vai dar o tom do uso da tecnologia são as relações sociais. É uma pauta que passa uma neutralidade que não existe e que afeta principalmente a população negra mais vulnerável”, afirma a advogada e codiretora, Clarissa França.
A tecnologia não é neutra
As formações do Aqualtune Lab mostram que o racismo é um fenômeno social que se atualiza por meio das novas tecnologias e que pode ser muito sutil. Nas redes sociais, por exemplo, os filtros que alteram as imagens no meio virtual têm consequências no mundo real.
“Os filtros embranquecem as pessoas, não existe um filtro de empretecimento. Isso reforça a ideia de que deixar a pessoa bonita é ter uma aparência mais jovem e com traços mais finos, atualizando para conceitos que já estávamos no caminho de superar. É uma maneira de manter a hierarquização entre as pessoas, do que é bom e do que é ruim, do que é bonito e do que é feio”, diz Clarissa.
Além das formações, a organização também produz o chamado Documento Preto, uma análise sobre Inteligência Artificial e racismo que visa orientar a construção de leis que regulamentam a tecnologia. Entre as recomendações estão o banimento do reconhecimento facial pela segurança pública, a exclusão de armas autônomas e a cautela no uso de IA para definição de acesso aos serviços de saúde.
“A nossa polícia é uma das mais mortais do mundo. E na maioria das vezes, o racismo vitimiza a população negra. Por isso, somos contra o reconhecimento facial e a liberação das armas autônomas. Usar a IA para definir quem vai ter acesso a um leito de hospital, um medicamento, etc, também incorre em grandes riscos para essa população”, alerta.
Aqualtune Lab
Clarissa França é advogada especializada em Direito da Saúde. Sua atuação como ativista deve-se ao movimento negro estudantil. Natural de Sergipe, ingressou na primeira turma de cotas raciais do Brasil, na Faculdade de Direito da Universidade Estadual do Rio de Janeiro (UERJ). “A UERJ não estava preparada para nos receber, então montamos um coletivo de estudantes negros, chamado Denegrir. Isso foi em 2003. Me formei e voltei para Aracaju. Desde então, sempre militei no movimento de mulheres negras.”
Ela conta que logo após a publicação da Lei Geral de Proteção de Dados Pessoais (LGPD), em 2018, percebeu que a discussão sobre o tema estava restrita a uma pequena parcela da população e que não incluía a população negra. “Pensei: por que não estamos discutindo isso? Então me juntei com algumas pessoas e começamos a conversar. Criamos um grupo chamado Proteção de Dados e Racismo e acabamos conhecendo pessoas como Tarcízio Silva e Bianca Kremer, especialistas no debate.”
“Isso foi em 2020. Era momento de pandemia, com muitos problemas políticos, vários retrocessos, muita coisa sendo fragilizada pela lógica da internet e do uso dos dados. E naquele momento, assim como hoje, havia questões pragmáticas. A população negra tinha que sobreviver, trabalhar, comer… Só que, cada vez mais, todas essas questões que envolvem direitos fundamentais passam pela tecnologia. Foi então que montamos o Aqualtune Lab”, recorda-se.
Proteção de dados e acesso à internet
Para Clarissa, a falta de informação sobre o uso das tecnologias, a maneira como os dados gerados são usados e a falta do acesso universal à internet no Brasil são alguns dos problemas associados à tecnologia que precisam ser solucionados. É preciso regulamentar, por exemplo, o direito da população de ser informada sobre uso de imagens e dados.
Um caso conhecido é quando damos o CPF para ter um desconto na farmácia e esse dado é vendido sem consentimento para empresas que fazem publicidade direcionada. Ou quando andamos em uma rua vigiada por câmeras sem saber de sua existência. Ou ainda, quando essas câmeras prometem garantir segurança, mas na verdade, filmam hábitos de consumo da população que depois serão vendidos.
“Hoje a economia se baseia em dados e estamos colocando todos nossos dados em plataformas de empresas estrangeiras. Não temos nenhum controle sobre o que é feito com esses dados e que provavelmente serão usados para criar novos produtos e vendidos para nós mesmos”, alerta.
Inteligência Artificial e Racismo
Segundo a advogada, tem sido cada vez mais comum uma vigilância ostensiva feita por IA em nome da segurança, porém, sem resultados efetivos. “Os índices de violência decorrem muito mais da desigualdade e das condições de vida do que efetivamente das tecnologias de repressão. Então, a promessa de segurança é uma falácia. Na verdade, apenas viola o direito de privacidade e liberdade da população.”
Clarissa aponta que os erros de reconhecimento facial, por exemplo, ocorrem na maioria das vezes com pessoas negras. Isso se deve ao fato da tecnologia ter um alto índice de erro, já que foi desenvolvida com base em um bancos de dados de populações mais uniformes. “Não foi o Brasil que desenvolveu essa tecnologia, nós importamos uma tecnologia feita na Alemanha.”
Ela lembra de um caso que ocorreu em um estádio de futebol em Sergipe, onde mora. “Um rapaz negro foi preso no meio do jogo pelo reconhecimento facial, que depois se mostrou falho. Ele foi algemado no meio do jogo, saiu escoltado por policiais, mas não tinha cometido crime algum. Detalhe: em nenhum momento, a torcida foi informada que as pessoas estavam sendo vigiadas”, destaca a codiretora da Aqualtune.
Quer apoiar essa causa?
A sede do Aqualtune Lab fica no Rio de Janeiro, mas a organização atua em rede, com pessoas engajadas em todo Brasil. Para fazer doações ou se voluntariar, entre no site e siga as redes sociais no Instagram, Linkedin e Facebook.