Por una Inteligencia Artificial antirracista: conozca el trabajo de Aqualtune Lab

El uso de la IA en Brasil afecta principalmente a la población negra; la organización ofrece formación en línea sobre el tema en todo el país

13.06.24

Para alertar a la población sobre la relación entre tecnología y racismo, el colectivo jurídico Aqualtune Lab viene promoviendo en todo Brasil formación online sobre los efectos del uso de la Inteligencia Artificial en la vida de la población negra. Desde el reconocimiento facial hasta los filtros utilizados en las redes sociales, pasando por las armas autónomas, todo se hace mediante algoritmos que simulan el razonamiento humano a partir de patrones aprendidos. 

Por eso es importante estar alerta: los algoritmos pueden reproducir comportamientos prejuiciosos, influyendo en decisiones que perjudican especialmente a la población negra. Los cursos de formación están dirigidos a organizaciones del tercer sector, con información tanto del ámbito del Derecho como de las tecnologías de la información. Por ejemplo, Aqualtune Lab forma parte de la Coalición Negra por los Derechos y de la Coalición por los Derechos en la Red. 

«Cuando hablamos de tecnología, la mayoría de la gente no pone objeciones, piensa que la tecnología es buena en sí misma. Pero lo que marcará la pauta del uso de la tecnología son las relaciones sociales. Es una agenda que transmite una neutralidad que no existe y que afecta principalmente a la población negra más vulnerable», afirma la abogada y codirectora Clarissa França. 

La tecnología no es neutral

Las formaciones del Aqualtune Lab muestran que el racismo es un fenómeno social que se actualiza a través de las nuevas tecnologías y que puede ser muy sutil. En las redes sociales, por ejemplo, los filtros que alteran las imágenes en el entorno virtual tienen consecuencias en el mundo real. 

«Los filtros blanquean a las personas, no existe un filtro blanqueador. Esto refuerza la idea de que embellecer a una persona significa parecer más joven y con rasgos más finos, actualizando conceptos que ya íbamos camino de superar. Es una forma de mantener la jerarquía entre las personas, de lo que es bueno y lo que es malo, lo que es bello y lo que es feo», dice Clarissa.

Además de los cursos de formación, la organización también elabora el llamado Documento Negro, un análisis de la Inteligencia Artificial y el racismo que pretende orientar la construcción de leyes que regulen la tecnología. Entre las recomendaciones están la prohibición del reconocimiento facial por parte de la seguridad pública, la exclusión de las armas autónomas y la cautela en el uso de la IA para definir el acceso a los servicios de salud. 

«Nuestra policía es una de las más mortíferas del mundo. Y la mayoría de las veces, el racismo victimiza a la población negra. Por eso estamos en contra del reconocimiento facial y de la liberación de armas autónomas. Utilizar la IA para definir quién tendrá acceso a una cama de hospital, a un medicamento, etc., también supone grandes riesgos para esta población», advierte.

Laboratorio Aqualtune

Clarissa França es abogada especializada en derecho sanitario. Su activismo tiene su origen en el movimiento estudiantil negro. Nacida en Sergipe, ingresó en la primera promoción con cuotas raciales de Brasil, en la Facultad de Derecho de la Universidad Estatal de Río de Janeiro (UERJ). «La UERJ no estaba preparada para recibirnos, así que creamos un colectivo de estudiantes negros llamado Denegrir. Eso fue en 2003. Me licencié y volví a Aracaju. Desde entonces, siempre he estado activa en el movimiento de mujeres negras».

Cuenta que poco después de la publicación de la Ley General de Protección de Datos Personales (LGPD), en 2018, se dio cuenta de que la discusión sobre el tema se limitaba a una pequeña parte de la población y no incluía a la población negra. «Pensé: ¿por qué no estamos discutiendo esto? Así que me reuní con algunas personas y empezamos a hablar. Creamos un grupo llamado Protección de Datos y Racismo y acabamos conociendo a gente como Tarcízio Silva y Bianca Kremer, expertos en el debate.» 

«Eso fue en 2020. Era una época de pandemia, con muchos problemas políticos, varios retrocesos, muchas cosas debilitándose por la lógica de internet y el uso de los datos. Y en aquella época, igual que hoy, había cuestiones pragmáticas. La población negra tenía que sobrevivir, trabajar, comer… Pero cada vez más, todas estas cuestiones relacionadas con los derechos fundamentales se abordan a través de la tecnología. Fue entonces cuando creamos Aqualtune Lab», recuerda.

Imagen: reproducción.

Protección de datos y acceso a Internet

Para Clarissa, la falta de información sobre el uso de la tecnología, la forma en que se utilizan los datos generados y la falta de acceso universal a Internet en Brasil son algunos de los problemas asociados a la tecnología que hay que resolver. Necesitamos regular, por ejemplo, el derecho del público a ser informado sobre el uso de imágenes y datos. 

Un caso bien conocido es cuando damos nuestro CPF para obtener un descuento en la farmacia y estos datos se venden sin consentimiento a empresas que hacen publicidad dirigida. O cuando caminamos por una calle vigilada por cámaras sin saber que existen. O cuando estas cámaras prometen garantizar la seguridad, pero en realidad filman los hábitos de consumo de la gente, que luego se venden. 

«La economía actual se basa en los datos y estamos poniendo todos nuestros datos en plataformas de empresas extranjeras. No tenemos ningún control sobre lo que se hace con estos datos y probablemente se utilizarán para crear nuevos productos y vendérnoslos a nosotros mismos», advierte. 

Inteligencia artificial y racismo

Según el abogado, la vigilancia ostentosa por parte de la IA en nombre de la seguridad se ha vuelto cada vez más común, pero sin resultados efectivos. «Los índices de violencia son mucho más consecuencia de la desigualdad y las condiciones de vida que de las tecnologías represivas. Así que la promesa de seguridad es una falacia. De hecho, sólo viola el derecho a la intimidad y la libertad de las personas».

Clarissa señala que los errores de reconocimiento facial, por ejemplo, se dan más a menudo con personas de raza negra. Esto se debe a que la tecnología tiene un alto índice de error, ya que se desarrolló a partir de una base de datos de poblaciones más uniformes. «Brasil no desarrolló esta tecnología, importamos una tecnología hecha en Alemania». 

Recuerda un caso que tuvo lugar en un estadio de fútbol de Sergipe, donde vive. «Detuvieron a un chico negro en medio del partido utilizando el reconocimiento facial, que luego resultó ser defectuoso. Fue esposado en medio del partido, escoltado a la salida por agentes de policía, pero no había cometido ningún delito. Es más, en ningún momento se informó a los aficionados de que estaban siendo vigilados», afirma el codirector de Aqualtune. 

¿Quieres apoyar esta causa?

Aqualtune Lab tiene su sede en Río de Janeiro, pero la organización funciona como una red, con personas implicadas en todo Brasil. Para donar o ser voluntario, visite el sitio web y siga las redes sociales en Instagram, Linkedin y Facebook

    Coalición Negra por los Derechos
    Coalición Negra por los Derechos
    Necesidad: Donaciones Voluntarios
    Contacto
    Apoyo
Maira Carvalho
Periodista y Antropóloga, Maira es responsable de informar y escribir artículos en Lupa do Bem.
Para compartir:
Notícias relacionadas