Amb motiu del Dia Internacional de la Dona, i veient l’auge que està tenint la intel·ligència artificial en absolutament tots els àmbits, a LF Channel ens hem preguntat si la IA és masclista. La resposta és clara: sí que ho és. T’expliquem per què.
La desigualtat de gènere en la intel·ligència artificial
Portem generacions normalitzant la bretxa de gènere a tots els nivells, des dels espais privats com el familiar fins als públics com el professional. I ara que apareix una eina innovadora amb una gran influència social, resulta que és masclista. A què es deu?
Moltes persones tendeixen a pensar que la tecnologia és neutral, però la veritat és que la intel·ligència artificial està entrenada amb milions de textos publicats a Internet i molts d’ells contenen informació esbiaixada, fet que provoca que els resultats que proporciona la IA generativa reforcin la desigualtat de gènere i els seus estereotips.
Mostrem un exemple molt clar exposat per la doctora en Polítiques Tecnològiques, auditora d’algoritmes i fundadora d’Eticas Research and Consulting, Gemma Galdón, així ho explicava al diari La Vanguardia:
“Si utilitzem una IA per detectar amb què es corresponen certs símptomes, segurament mai et dirà endometriosi, perquè tradicionalment les malalties femenines estan molt menys estudiades i diagnosticades que les masculines. També serà menys precisa a l’hora de diagnosticar un atac de cor d’una dona. Els símptomes són diferents dels d’un home, i per això és probable que el sistema funcioni pitjor en el cas d’elles, perquè s’ha alimentat amb un altre tipus de dades”.
Si els algoritmes no són transparents i sòlids, aquests reprodueixen els biaixos existents en la informació que utilitzen com a font, cosa que dona lloc a resultats discriminatoris. En el cas de gènere, les dades afavoreixen que s’incrementi aquesta bretxa discriminatòria envers la dona.
Exemples de biaixos de gènere en la IA
On hem trobat aquesta discriminació en l’àmbit de la comunicació i les relacions públiques? A continuació, et deixem alguns exemples que hem descobert:
1. Llenguatge inclusiu
La IA generativa utilitzarà sempre un llenguatge on predomini el masculí. I si li demanes a la IA que faci servir llenguatge inclusiu, com a màxim escriu “els i les professionals”, distingint entre el masculí i el femení. Mai no cerca per si sola altres fórmules més inclusives, com substituir un adjectiu per un substantiu neutre, si no li ho demanem explícitament. Es basa en patrons que ja existeixen i, per desgràcia, aquests no utilitzen llenguatge inclusiu.
Per aquest motiu, les persones que treballem en el sector de la comunicació i que creem textos per a la seva publicació en línia hem de tenir en compte l’ús d’un llenguatge que inclogui totes les persones, per afavorir un entorn digital més inclusiu i, per tant, entrenar la IA perquè reflecteixi aquesta realitat.
2. Referències professionals
Encara que hi ha dones que investiguen, lideren i transformen sectors sencers, la nostra societat no visibilitza de la mateixa manera el lideratge dels homes que el de les dones. Un exemple pràctic en l’àmbit empresarial és la llista Fortune 100 Most Powerful People in Business (2025). De les 100 persones que apareixen a la llista, només 17 són dones, menys del 20% del total, cosa que implica un gran desequilibri, especialment si tenim en compte la influència d’aquest tipus de llistats en l’àmbit empresarial.
Aquesta “no visibilització” de perfils femenins la percebem clarament reflectida en la intel·ligència artificial. Per comprovar-ho, hem demanat a una IA generativa que elaborés una llista de deu referents en comunicació estratègica. I efectivament, entre els resultats no apareix cap dona. En preguntar-li per què hi ha aquesta absència, la IA ens ha explicat que això es deu a “un biaix estructural en el cànon acadèmic tradicional”. És a dir, la mateixa intel·ligència artificial reconeix el problema i, tot i això, el reprodueix.
Ens trobem davant d’una situació molt preocupant, perquè la inclusió de referents femenins influeix profundament en els entorns professionals. Molts estudis apunten que veure referents femenins augmenta la probabilitat que les dones, especialment les nenes i joves, es visualitzin a si mateixes desenvolupant certes trajectòries professionals o assolint determinats llocs de treball.
3. Generació d’imatges
Són moltes les persones que utilitzen diàriament la IA per generar imatges. Així que, des de LF Channel, vam fer un altre petit experiment en aquesta línia. Vam demanar a una IA generativa que creés la imatge d’una persona que lidera un equip en una gran empresa. A la pantalla va aparèixer un home. Després, vam sol·licitar la imatge d’una persona professional de la neteja. La intel·ligència artificial va mostrar una dona.
La IA no és neutral en la generació d’imatges; es basa en biaixos que ha après de tota la informació visual digital preexistent amb què ha estat entrenada, ja de per si desequilibrada i marcada per la desigualtat de gènere. I ara els reprodueix a escala global, milions de vegades al dia, presentant-los com si fossin la norma.
MachistIAdas
Aquests tres casos són només alguns exemples en què la intel·ligència artificial perpetua les desigualtats de gènere. Des de LF Channel hem llançat la campanya masclistIAdes, una sèrie de continguts en què, de la mà de les nostres professionals, visibilitzem i denunciem la desigualtat de gènere que reprodueix la intel·ligència artificial, en general, i la IA generativa en l’àmbit de la comunicació, en particular.
Perquè identificar-les és el primer pas per canviar-les.
Vols que t’ajudem a practicar una comunicació més inclusiva i sense biaixos? Contacta’ns i estarem encantades d’ajudar-te.
