A la nostra societat, tant les decisions individuals com les col·lectives estan determinades per biaixos de gènere. Quan parlem de biaixos de gènere, ens referim a la inclinació subjectiva cap a un gènere determinat. Sense que ens n’adonem, aquest tipus de condicionants es fan presents en tots els aspectes de la nostra vida. Així doncs, podria ser que també hi hagués biaixos de gènere en la intel·ligència artificial (IA)?
Abans de res, hem de partir de la base que la intel·ligència artificial imita la manera en què les persones pensen, processen la informació i reaccionen, i, per tant, també en què discriminen. Tal com assenyala Lorena Jaume a l’Informe preliminar con perspectiva interseccional sobre sesgos de género en la inteligencia artificial, el caràcter categoritzador i encasellador de la discriminació converteix els sistemes algorítmics en una tecnologia amb un risc inherent.
Els sistemes algorítmics centrats en perfils humans creen estàndards, en desgranen les particularitats i les fan servir per tipificar cada individu. Aquests filtres sovint estan basats en una perspectiva androcèntrica, construïda a partir del cos capacitat, blanc i masculí. Amb aquesta classificació acaben excloent a qui categoritzen com una desviació, una irregularitat que consideren sospitosa.
N’és un exponent el sistema VioGén, l’eina basada en 35 preguntes que utilitza la Policia espanyola per avaluar el risc que corren les dones víctimes de violència de gènere quan acudeixen a realitzar una denúncia. Es tracta del sistema d’avaluació de riscos amb més casos registrats del món. Segons la Fundació Eticas i l’Associació Ana Bella, l’eina no és accessible, i qui la dissenya no té en compte el testimoni o experiència de les usuàries finals, que en reporten diferents problemes per la falta d’informació, d’empatia o de suport.
Ens trobem amb un problema similar amb els semàfors intel·ligents, que no processen en els seus sistemes diferències de gènere (ni tampoc d’edat o capacitat). Reflectint un problema intrínsec en l’organització de la mobilitat, aquests semàfors estan pensats per prioritzar els automòbils, utilitzats majoritàriament per homes, en detriment dels vianants, grup format majoritàriament per dones.
D’altra banda, un altre dels grans problemes de la intel·ligència artificial té a veure amb la pornografia: el 96 % de les imatges generades per intel·ligència artificial són de pornografia no consentida. El 100 % de las afectades són dones. Un cas conegut és el de Rosalía, “despullada” per intel·ligència artificial en una imatge que es va escampar com una taca d’oli per les xarxes socials.
Per acabar, cal remarcar que en la intel·ligència artificial els biaixos de gènere es barregen amb els racials. La tendència a no realitzar proves genètiques a dones negres amb càncer de mama,2 per exemple, ha influït en els programes computacionals de càlcul de risc. En aquesta línia, s’ha d’assenyalar el racisme intrínsec dels anomenats sistemes de detecció de rostre, que no detecten dones negres o racialitzades, o bé criminalitzen sistemàticament les poblacions racialitzades.3
Davant de tots aquests casos, arribem a la mateixa conclusió que va expressar el col·lectiu de Donestech a Pikara Magazine: «El desenvolupament tecnològic està marcat per uns contextos i condicionants ideològics que tenen a veure amb el gènere i amb la nostra orientació sexual, classe, raça, edat i cultura». Cap sistema tecnològic, per tant, té un impacte neutral pel que fa al gènere.