Una recerca liderada per la UOC, on participa la professora de l’EUSS Laura Calvet, analitza com es pot posar fi als biaixos dels algorismes d’internet
Segons els experts, molts algorismes d’internet associen la masculinitat amb les ciències i la feminitat amb les arts, basant-se en estereotips
Les recerques apunten que totes les persones involucrades
en el desenvolupament d’un algorisme han de conèixer les mesures que es poden
prendre per minimitzar els possibles biaixos i aplicar-les perquè no es
produeixin
Sobre si els algorismes d’internet amb els quals
interactuem constantment presenten un biaix de gènere s’han escrit rius
de tinta; n’hi ha prou amb una simple entrada al cercador per comprovar-ho. No
obstant això, segons els investigadors d’un nou estudi que intenta arribar a
una conclusió sobre aquesta pregunta, “fins ara, el debat ha estat
allunyat d’una anàlisi científica”. Aquest nou treball, emprès per un
equip multidisciplinari, mostra una nova manera d’abordar la pregunta i proposa
algunes solucions per evitar aquestes desviacions en les dades i la
discriminació que porten associada.
Els algorismes s’empren cada vegada més per decidir si
es concedeix o denega un préstec o per acceptar sol·licituds. A mesura que
augmenta el nombre d’aplicacions d’intel·ligència artificial (IA), així com les
seves capacitats i la seva rellevància, és més important avaluar els
possibles prejudicis adherits a aquestes operacions. “Si bé aquest no
és un concepte nou, hi ha molts casos en els quals aquest problema no
s’estudia, de manera que se n’ignoren les possibles conseqüències”,
afirmen responsables de la recerca publicada
en accés obert a la revista Algorithms,
enfocada principalment al biaix de gènere en diferents camps de la IA.
Aquests prejudicis poden tenir grans impactes en la
societat: “Els biaixos
afecten totes les persones que estiguin discriminades o excloses o associades a
un estereotip. Per
exemple, podrien excloure un gènere o una raça d’un procés de decisió o,
simplement, assumir un comportament determinat pel gènere o el color de la pell”,
explica la seva investigadora principal, Juliana Castañeda Jiménez, estudiant
de doctorat industrial de la
Universitat Oberta de Catalunya (UOC), sota la direcció d’Ángel A. Juan, de
la Universitat Politècnica de València, i Javier Panadero, de la Universitat Politècnica de Catalunya.
Segons
Castañeda, “és possible que els processos algorítmics discriminin per
gènere, fins i tot quan estan programats per ser ‘cecs’ a aquesta variable”. L’equip investigador —en el
qual, a més, participen els investigadors Milagros Sáinz i
Sergi Yanes, del grup de Gènere i TIC (GenTIC) de l’Internet
Interdisciplinary Institute (IN3), Laura Calvet, de l’Escola Universitària
Salesiana de Sarrià, Assumpta Jover, de la Universitat de València, així com Ángel
A. Juan— ho exposa amb diversos exemples: el cas d’una coneguda eina de
contractació que preferia els candidats masculins als femenins, o el
d’alguns serveis de crèdit que oferien condicions menys avantatjoses per a
les dones que per als homes. “Si
s’utilitzen dades històriques i no estan equilibrades, probablement s’observarà
un condicionament negatiu relacionat amb demografia negra, gai i fins i tot
femenina, depenent de quan i d’on són aquestes dades”, indica Castañeda.
Ells, ciències i elles, arts
Per saber el grau d’afectació per
aquests patrons que experimenten els diferents algorismes als quals ens
enfrontem, els investigadors van
analitzar treballs anteriors que identificaven biaixos de gènere en
processaments de dades en quatre tipus d’IA: la que descriu aplicacions en
processament i generació de llenguatge natural, l’encarregada de la gestió de
decisions, i la de reconeixement facial i de veu.
En
general, van trobar que tots els algorismes identifiquen i classifiquen
millor els homes blancs. A més, van observar que reproduïen creences falses
sobre com haurien de ser els atributs físics que defineixen les persones segons
el seu sexe biològic, origen ètnic o cultural, o orientació sexual, i que, així
mateix, associaven de manera estereotipada la masculinitat i la feminitat amb
les ciències i les arts, respectivament.
Molts
dels procediments emprats en aplicacions de reconeixement d’imatge o veu també
es basen en aquests estereotips: igual que les càmeres reconeixen més bé les
cares blanques, l’anàlisi d’àudio té problemes amb les veus més agudes,
cosa que afecta principalment les dones.
Els casos més susceptibles
de presentar aquests defectes són els algorismes que es construeixen a partir
de l’anàlisi de dades reals que porten associat un context social. “Algunes de les causes
principals són la infrarepresentació de les dones en el disseny i el desenvolupament
de productes i serveis d’IA i l’ús de conjunts de dades amb biaixos de
gènere”, assenyala la investigadora, que creu que el problema està relacionat
amb els entorns culturals en els quals són desenvolupats.
“L’algorisme, en
entrenar-se amb dades esbiaixades, pot determinar els patrons ocults que hi ha
socialment, i a l’hora d’operar, els reprodueix. Així que, si en la
societat, la representació d’homes i dones no és equilibrada, el disseny i el
desenvolupament dels productes i serveis d’IA mostraran biaixos de
gènere.”
Com es pot suprimir aquesta tendència?
Les múltiples fonts de biaix de gènere, així com les particularitats de cada classe d’algorisme i conjunt de dades fan que eliminar aquesta desviació sigui un desafiament particularment difícil, però no impossible. “Cal que els dissenyadors i totes les persones involucrades en el seu desenvolupament estiguin informades sobre la possibilitat de tenir biaixos associats a la lògica d’un algorisme. A més, han de conèixer les mesures que hi ha per minimitzar al màxim els possibles biaixos i aplicar-les perquè no es produeixin, perquè, si són conscients de les discriminacions que s’esdevenen en la societat, sabran identificar quan els seus desenvolupaments les reprodueixen“, proposa Castañeda.
La novetat d’aquest treball rau en el fet que ha estat
promogut per especialistes en diferents àrees, en què hi ha, entre d’altres,
una sociòloga, un antropòleg i expertes en gènere o estadística. “Els
membres de l’equip van completar una perspectiva que va més enllà de la
matemàtica autònoma associada a l’algorisme i, així, vam poder considerar
l’algorisme com un sistema sociotècnic complex”, descriu la investigadora
principal de l’estudi.
“Si es compara aquest treball amb d’altres, penso que és un dels pocs que presenta la temàtica dels biaixos en els algorismes des d’una perspectiva neutra, en què es destaquen tant els aspectes socials com els tècnics per identificar per què un algorisme pren una decisió esbiaixada”, conclou.
Article
relacionat
CASTANEDA, J.; JOVER, A.; CALVET, L.;
YANES, S.; JUAN, A. A.; SAINZ, M. Dealing with Gender Bias Issues in
Data-Algorithmic Processes: A Social-Statistical Perspective. A: Algorithms (2022).
https://doi.org/10.3390/a15090303