Reducció d’emissions de gasos d’efecte hivernacle en l’explotació de les depuradores d’aigües residuals

El professor de l’EUSS Dr. Ignasi Santín acaba de publicar un article al llibre d’actes del 26th International Conference on System Theory, Control and Computing (ICSTCC), titulat “Complementary Control Actions for Greenhouse Gas Emissions Reduction in Wastewater Treatment Plant Operation”. Aquest treball ha estat fruit de la col·laboració amb investigadors del Departament de Telecomunicació i d’Enginyeria de Sistemes de la Universitat Autònoma de Barcelona, i la Facultad de Ingeniería de Costa Rica.

Les depuradores són necessàries per millorar la qualitat de les aigües residuals abans de ser abocades al medi receptor, però tenen l’inconvenient de generar emissions d’òxid nitrós durant el tractament biològic, que és un potent gas d’efecte hivernacle (GEH). Aquest és un greu inconvenient, ja que la reducció de les emissions de gasos d’efecte hivernacle per causes antròpiques és un dels principals reptes a afrontar en referència als efectes del canvi climàtic.

Figura 1. ACC que combina Qa fixa i regulada amb el controlador “fuzzy” proposat, depenent de Tas.

En aquest article s’examina una manera potencial de reduir les emissions d’òxid nitrós reduint l’oxigen dissolt als nivells mínims. Per aconseguir aquest objectiu, en aquest treball es proposa utilitzar el cabal de recirculació interna del tractament biològic. Es tracta d’una variable manipulada força oblidada que, com s’ha pogut mostrar, pot tenir efectes secundaris potencials per complementar les accions de control ja existents. Per tant, aquesta regulació addicional s’afegeix a una estratègia de control habitual a les depuradores d’aigües residuals, que aconsegueix resultats satisfactoris en qualitat de l’aigua i en costos d’explotació però amb elevades emissions d’òxid nitrós. El model de simulació de referència núm. 2 Gas (BSM2G) s’utilitza com a escenari de treball, que inclou les dues vies principals d’emissió d’òxid nitrós: la desnitrificació heteròtrofa i la desnitrificació de bacteris oxidants d’amoníac.

25N a l’EUSS

Amb motiu del Dia Internacional per l’Eliminació de la Violència contra les Dones, 25N, s’han portat a terme diverses accions a l’EUSS.

D’una banda, el personal de l’EUSS ha participat en una formació per prevenir, detectar i actuar davant l’assetjament sexual, impartida per la Berta Canals, directora de la Fundació privada SORLI. L’objectiu d’aquesta formació ha sigut sensibilitzar sobre l’assetjament sexual i per raó de sexe, aprendre a identificar casos que es poden donar i disposar d’eines d’acció per combatre’l.

Moment de la sessió de formació del personal.

D’altra banda, els Bons Dies de la segona quinzena de novembre també s’han dedicat a aquesta problemàtica, tot recordant l’existència del Protocol per prevenir i actuar contra l’assetjament que l’EUSS va elaborar fa uns anys.

Finalment, s’ha fet difusió del Protocol per prevenir i actuar contra l’assetjament per raó de sexe, orientació sexual, identitat de gènere o expressió de gènere, la violència masclista, i l’assetjament laboral entre l’alumnat i el personal de l’EUSS, repartint el tríptic on s’hi resumeixen els aspectes més rellevants.

Com es poden eliminar els biaixos de gènere en els algorismes d’internet

Una recerca liderada per la UOC, on participa la professora de l’EUSS Laura Calvet, analitza com es pot posar fi als biaixos dels algorismes d’internet

Segons els experts, molts algorismes d’internet associen la masculinitat amb les ciències i la feminitat amb les arts, basant-se en estereotips

Les recerques apunten que totes les persones involucrades en el desenvolupament d’un algorisme han de conèixer les mesures que es poden prendre per minimitzar els possibles biaixos i aplicar-les perquè no es produeixin

Sobre si els algorismes d’internet amb els quals interactuem constantment presenten un biaix de gènere s’han escrit rius de tinta; n’hi ha prou amb una simple entrada al cercador per comprovar-ho. No obstant això, segons els investigadors d’un nou estudi que intenta arribar a una conclusió sobre aquesta pregunta, “fins ara, el debat ha estat allunyat d’una anàlisi científica”. Aquest nou treball, emprès per un equip multidisciplinari, mostra una nova manera d’abordar la pregunta i proposa algunes solucions per evitar aquestes desviacions en les dades i la discriminació que porten associada.

Els algorismes s’empren cada vegada més per decidir si es concedeix o denega un préstec o per acceptar sol·licituds. A mesura que augmenta el nombre d’aplicacions d’intel·ligència artificial (IA), així com les seves capacitats i la seva rellevància, és més important avaluar els possibles prejudicis adherits a aquestes operacions. “Si bé aquest no és un concepte nou, hi ha molts casos en els quals aquest problema no s’estudia, de manera que se n’ignoren les possibles conseqüències”, afirmen responsables de la recerca publicada en accés obert a la revista Algorithms, enfocada principalment al biaix de gènere en diferents camps de la IA.

Aquests prejudicis poden tenir grans impactes en la societat: “Els biaixos afecten totes les persones que estiguin discriminades o excloses o associades a un estereotip. Per exemple, podrien excloure un gènere o una raça d’un procés de decisió o, simplement, assumir un comportament determinat pel gènere o el color de la pell”, explica la seva investigadora principal, Juliana Castañeda Jiménez, estudiant de doctorat industrial de la Universitat Oberta de Catalunya (UOC), sota la direcció d’Ángel A. Juan, de la Universitat Politècnica de València, i Javier Panadero, de la Universitat Politècnica de Catalunya.

Segons Castañeda, “és possible que els processos algorítmics discriminin per gènere, fins i tot quan estan programats per ser ‘cecs’ a aquesta variable”. L’equip investigador —en el qual, a més, participen els investigadors Milagros Sáinz i Sergi Yanes, del grup de Gènere i TIC (GenTIC) de l’Internet Interdisciplinary Institute (IN3), Laura Calvet, de l’Escola Universitària Salesiana de Sarrià, Assumpta Jover, de la Universitat de València, així com Ángel A. Juan— ho exposa amb diversos exemples: el cas d’una coneguda eina de contractació que preferia els candidats masculins als femenins, o el d’alguns serveis de crèdit que oferien condicions menys avantatjoses per a les dones que per als homes. “Si s’utilitzen dades històriques i no estan equilibrades, probablement s’observarà un condicionament negatiu relacionat amb demografia negra, gai i fins i tot femenina, depenent de quan i d’on són aquestes dades”, indica Castañeda.

Ells, ciències i elles, arts

Per saber el grau d’afectació per aquests patrons que experimenten els diferents algorismes als quals ens enfrontem, els investigadors van analitzar treballs anteriors que identificaven biaixos de gènere en processaments de dades en quatre tipus d’IA: la que descriu aplicacions en processament i generació de llenguatge natural, l’encarregada de la gestió de decisions, i la de reconeixement facial i de veu.

En general, van trobar que tots els algorismes identifiquen i classifiquen millor els homes blancs. A més, van observar que reproduïen creences falses sobre com haurien de ser els atributs físics que defineixen les persones segons el seu sexe biològic, origen ètnic o cultural, o orientació sexual, i que, així mateix, associaven de manera estereotipada la masculinitat i la feminitat amb les ciències i les arts, respectivament.

Molts dels procediments emprats en aplicacions de reconeixement d’imatge o veu també es basen en aquests estereotips: igual que les càmeres reconeixen més bé les cares blanques, l’anàlisi d’àudio té problemes amb les veus més agudes, cosa que afecta principalment les dones.

Els casos més susceptibles de presentar aquests defectes són els algorismes que es construeixen a partir de l’anàlisi de dades reals que porten associat un context social. “Algunes de les causes principals són la infrarepresentació de les dones en el disseny i el desenvolupament de productes i serveis d’IA i l’ús de conjunts de dades amb biaixos de gènere”, assenyala la investigadora, que creu que el problema està relacionat amb els entorns culturals en els quals són desenvolupats.

“L’algorisme, en entrenar-se amb dades esbiaixades, pot determinar els patrons ocults que hi ha socialment, i a l’hora d’operar, els reprodueix. Així que, si en la societat, la representació d’homes i dones no és equilibrada, el disseny i el desenvolupament dels productes i serveis d’IA mostraran biaixos de gènere.”

Com es pot suprimir aquesta tendència?

Les múltiples fonts de biaix de gènere, així com les particularitats de cada classe d’algorisme i conjunt de dades fan que eliminar aquesta desviació sigui un desafiament particularment difícil, però no impossible. “Cal que els dissenyadors i totes les persones involucrades en el seu desenvolupament estiguin informades sobre la possibilitat de tenir biaixos associats a la lògica d’un algorisme. A més, han de conèixer les mesures que hi ha per minimitzar al màxim els possibles biaixos i aplicar-les perquè no es produeixin, perquè, si són conscients de les discriminacions que s’esdevenen en la societat, sabran identificar quan els seus desenvolupaments les reprodueixen“, proposa Castañeda.

La novetat d’aquest treball rau en el fet que ha estat promogut per especialistes en diferents àrees, en què hi ha, entre d’altres, una sociòloga, un antropòleg i expertes en gènere o estadística. “Els membres de l’equip van completar una perspectiva que va més enllà de la matemàtica autònoma associada a l’algorisme i, així, vam poder considerar l’algorisme com un sistema sociotècnic complex”, descriu la investigadora principal de l’estudi.

“Si es compara aquest treball amb d’altres, penso que és un dels pocs que presenta la temàtica dels biaixos en els algorismes des d’una perspectiva neutra, en què es destaquen tant els aspectes socials com els tècnics per identificar per què un algorisme pren una decisió esbiaixada”, conclou.

Article relacionat

CASTANEDA, J.; JOVER, A.; CALVET, L.; YANES, S.; JUAN, A. A.; SAINZ, M. Dealing with Gender Bias Issues in Data-Algorithmic Processes: A Social-Statistical Perspective. A: Algorithms (2022). https://doi.org/10.3390/a15090303

L’EUSS participa en la 1a edició del Robotic Talks By Mir

Dimecres 23 de novembre es va celebrar la primera edició del Robotic Talks by Mir, un fòrum virtual que reuneix als professionals del sector de la robòtica.

L’objectiu d’aquesta taula rodona era exposar temes essencials del sector, condicionats per la realitat actual. En concret, la temàtica central de l’esdeveniment era: Treballar en 2030: Humans + Robots i va comptar amb la participació de tres convidats, Fernando Fandiño Oliver, Head of Office & Sales Director of Mir Southern Europe; Jan Puig, director de Vendes de PILZ Espanya i, el professor de robòtica de l’EUSS i enginyer industrial, el Dr. Llorenç Servera.

Els tres participants van disposar d’un torn de paraula inicial per exposar les seves idees abans d’entrar en debat amb la resta de participants. Per la seva part, el Dr. Servera va centrar la seva ponència a parlar dels avenços tecnològics a la indústria vs. a les universitats, la relació entre universitat-empresa i “Engineering by doing”, el mètode educatiu de l’EUSS.

L’esdeveniment va finalitzar amb les preguntes de l’audiència.