Con motivo del Día Internacional de la Mujer, y viendo el auge que está teniendo la inteligencia artificial en absolutamente todos los ámbitos, en LF Channel nos hemos preguntado si la IA es machista. La respuesta es clara: sí lo es. Te explicamos por qué.
La desigualdad de género en la inteligencia artificial
Llevamos generaciones normalizando la brecha de género a todos los niveles, desde los espacios privados como el familiar, a los públicos como el profesional. Y ahora que aparece una innovadora herramienta con una gran influencia social, resulta que es machista. ¿A qué se debe?
Muchas personas tienden a pensar que la tecnología es neutral, pero lo cierto es que la inteligencia artificial está entrenada con millones de textos publicados en Internet y muchos de ellos cuentan con información sesgada provocando que los resultados que proporciona la IA generativa refuercen la desigualdad de género y sus estereotipos.
Mostramos un ejemplo muy claro expuesto por la doctora en Políticas Tecnológicas, auditora de algoritmos y fundadora de Eticas Research and Consulting, Gemma Galdón, así lo explicaba en el periódico La Vanguardia:
“Si utilizamos una IA para detectar con qué se corresponden ciertos síntomas, seguramente nunca te dirá endometriosis, porque tradicionalmente las enfermedades femeninas están mucho menos estudiadas y diagnosticadas que las masculinas. También será menos precisa a la hora de diagnosticar un ataque al corazón de una mujer. Los síntomas son diferentes a los de un hombre, y por eso es probable que el sistema funcione peor en el caso de ellas, porque se ha alimentado con otro tipo de datos”.
Si los algoritmos no son transparentes y sólidos, estos reproducen los sesgos existentes en la información que utiliza como fuente, lo que da lugar a resultados discriminatorios. En el caso de género, los datos favorecen que se incremente esta brecha discriminatoria hacia la mujer.
Ejemplos de sesgos de género en la IA
¿Dónde hemos encontrado esta discriminación en el ámbito de la comunicación y las relaciones públicas? A continuación, te dejamos algunos ejemplos que hemos descubierto:
1. Lenguaje inclusivo
La IA generativa utilizará siempre un lenguaje donde prime lo masculino. Y si pides a la IA que use lenguaje inclusivo, como mucho, escribe “los y las profesionales”, distinguiendo entre el masculino y el femenino. Nunca busca por sí sola otras fórmulas más inclusivas como sustituir un adjetivo por un sustantivo neutro si no se lo pedimos explícitamente. Se basa en patrones que ya existen y, por desgracia, estos no utilizan lenguaje inclusivo.
Por este motivo, las personas que trabajamos en el sector de la comunicación y que creamos textos para su publicación online debemos tener en cuenta el uso de un lenguaje que incluya a todas las personas. para favorecer un entorno digital más inclusivo y, por lo tanto, entrenar a la IA para que refleje esta realidad.
2. Referencias profesionales
Aunque existen mujeres que investigan, lideran y transforman sectores enteros, nuestra sociedad no visibiliza de igual manera el liderazgo de hombres que el de mujeres. Un ejemplo práctico en el ámbito empresarial es la lista Fortune 100 Most Powerful People in Business (2025). De las 100 personas que aparecen en la lista, únicamente 17 son mujeres, menos del 20% del total, lo que implica un gran desequilibrio, especialmente si tenemos en cuenta la influencia de este tipo de listados a nivel empresarial.
Esta “no visibilización” de perfiles femeninos la percibimos claramente reflejada en la inteligencia artificial. Para comprobarlo, hemos pedido a una IA generativa que elaborara una lista de diez referentes en comunicación estratégica. Y efectivamente, entre los resultados no aparece ninguna mujer. Al preguntarle por qué esta ausencia, la IA nos ha explicado que esto se debe a “un sesgo estructural en el canon académico tradicional”. Es decir, la propia inteligencia artificial reconoce el problema, y aun así lo reproduce.
Nos encontramos ante una situación muy preocupante, porque la inclusión de referentes femeninos influye profundamente en los entornos profesionales. Muchos estudios apuntan a que ver referentes femeninos aumenta la probabilidad de que las mujeres, especialmente las niñas y jóvenes, se visualicen a sí mismas desarrollando ciertas trayectorias profesionales o alcanzando ciertos puestos de trabajo.
3. Generación de imágenes
Son muchísimas las personas que usan a diario la IA para generar imágenes. Así que desde LF Channel hicimos otro pequeño experimento en esta línea. Pedimos a una IA generativa que creara la imagen de una persona que lidera un equipo en una gran empresa. En la pantalla apareció un hombre. Después, solicitamos la imagen de una persona profesional de la limpieza. La inteligencia artificial mostró a una mujer.
La IA no está siendo neutral en la generación de imágenes, se basa en sesgos que ha aprendido de toda la información visual digital preexistente con la que ha sido entrenada, ya de por sí desequilibrada y marcada por la desigualdad de género. Y ahora los reproduce a escala global, millones de veces al día, presentándolos como si fueran la norma.
MachistIAdas
Estos tres casos son solo algunos ejemplos en los que la inteligencia artificial perdura las desigualdades de género. Desde LF Channel hemos lanzado la campaña machistIAdas, una serie de contenidos en los que, de la mano de nuestras profesionales, visibilizamos y denunciamos la desigualdad de género que reproduce la inteligencia artificial, en general, y la IA generativa en el ámbito de la comunicación, en particular.
Porque identificarlas es el primer paso para cambiarlas.
¿Quieres que te ayudemos a practicar una comunicación más inclusiva y sin sesgos? Contáctanos y estaremos encantadas de ayudarte.
