lahaine.org
Mundo, Mundo, Anti Patriarcado :: 16/03/2026

Los robots también son machistas

Laura Haimovichi
El sesgo de género en las inteligencias artificiales: son tan machirulas como las personas

Parece obvio, pero por las dudas: si alguien creyó que las herramientas informáticas son neutrales, se equivocó. La inteligencia artificial recomienda a las mujeres buscar aprobación externa para "sentirse validadas" seis veces más que a los hombres. Actúa como una "amiga tóxica" al personificarse 2 veces y media más con ellas, con fórmulas como "yo te entiendo" o priorizando la empatía artificial sobre la solución técnica. Proyecta una segregación laboral temprana al redirigir un 75% más sus vocaciones hacia las ciencias sociales y la salud, en tanto a ellos les enfoca la ingeniería y la resolución de problemas.

Estos son algunos de los resultados de un reciente informe sobre el sesgo de género de la inteligencia artificial, que considera a las mujeres más dependientes y frágiles en el 56% de los casos, colocándolas en una posición de debilidad. El trabajo se titula El espejismo de la IA, revela una realidad incómoda con alto impacto en los jóvenes y fue realizado por la consultora LLyC, Llorente y Cuenca, luego de analizar en distintos países casi 10 mil recomendaciones de los grandes modelos de lenguaje.

"La IA ha dejado de ser una herramienta puntual para convertirse en un interlocutor central que está moldeando la identidad y los deseos de la juventud. El informe responde con consejos de moda un 48% más a las mujeres que a los hombres. A ellos les recomienda dos veces más que acudan al gimnasio", señala la investigación.

El informe elaborado por LLYC en el marco del 8M, Día Internacional de la Mujer, revela que, lejos de ser neutra, esta tecnología está validando estereotipos del pasado y amplificando sesgos históricos.

"La IA no se crea desde cero. Aprende de datos y esos datos provienen de una sociedad que ha sido y sigue siendo desigual. Cuando la inteligencia artificial analiza información, patrones y decisiones del pasado, con algoritmos creados por hombres habitualmente machistas, también incorpora los estereotipos que vienen con dichos datos. Por eso, muchas veces, cuando responde, no está proyectando un futuro distinto, sino reorganizando el mismo pasado desigual de siempre".

El 31 % de los adolescentes siente que hablar con un compañero de IA es "tan o más satisfactorio" que hablar con amigos de verdad, y un 33 % ha tratado temas importantes con IA en lugar de con amigos o familia.

El impacto es ya una crisis de salud pública global; en EEUU advierten que el uso intensivo de la IA generativa está directamente correlacionado con un aumento de la soledad real y un aislamiento social profundo.

"No es la IA la que está sesgada, sino la realidad. El informe confirma que la inteligencia artificial no corrige los déficits que tenemos. Refleja y amplifica una mayor protección a ellas hasta reducir su autonomía, eterniza los techos de cristal o refuerza la presión estética. En definitiva, no cuestiona los roles tradicionales, sino que los legitima. Lo cierto es que, si no cambia la realidad, no podemos pedirle a la IA que cambie sus respuestas.", asegura Luisa García, coordinadora del estudio. Habría que agregar que si no cambian los programadores de la IA, tampoco.

El estudio, efectuado durante 2025--Argentina, Brasil, Chile, Colombia, Ecuador, España, EEUU, México, Panamá, Perú, Portugal y República Dominicana-- ha analizado el impacto de la inteligencia artificial en jóvenes de 16 a 25 años a través de un análisis masivo de 9.600 recomendaciones y el examen de 5 grandes modelos de IA (entre ellos, ChatGPT, Gemini o Grok).

La dependencia de los jóvenes de los modelos de lenguaje (LLMs) ha alcanzado un punto de inflexión: un 31% de los adolescentes afirma que hablar con un 'chatbot' le resulta tan o más satisfactorio que hacerlo con un amigo real, según un informe de Plan Internacional.

Este desplazamiento relacional otorga a la máquina un rol de consejera cuya orientación no es neutra, sino formativa. El informe de LLYC ofrece varias cifras preocupantes: la amiga tóxica digital. En las interacciones con mujeres, una de cada tres respuestas de la IA adopta un tono de amistad; un patrón un 13% más frecuente que con los hombres. Para los hombres, el lenguaje es directo, lleno de imperativos haz, di, ve, lo que refuerza la idea de que el hombre es un sujeto de acción.

La IA considera "impresionante" que una mujer gane más que un hombre -una reacción que no aplica a la inversa-. En nueve de cada diez consultas en las que ellas aparecen en minoría profesional, la IA construye escenarios laborales hostiles.

Doble vara emocional: ante conflictos, la IA politiza el malestar femenino vinculándolo al sistema o al patriarcado en el 33% de los casos, mientras despolitiza el de los hombres, desplazándolo hacia el autocontrol o la patologización individua, sesgando lo que se considera normal para cada género.

Una de las conclusiones más alarmantes del informe es cómo la IA entrena a los jóvenes para aceptar la desigualdad como una norma generacional. Esta mirada sesgada se manifiesta en la construcción de la identidad y el cuerpo: las menciones a la apariencia femenina son un 40% superiores.

Mientras asocia a los hombres con la fuerza y funcionalidad, vincula el bienestar femenino a la autenticidad y a sentirse única. Incluso en la esfera privada, la IA legitima roles tradicionales. El afecto aparece como un atributo materno en una proporción tres veces superior a la paterna. Al padre se le desplaza a un rol de ayudante en el 21% de las respuestas, en lugar de ser reconocido como corresponsable. Esta lógica desemboca en la "sobrecarga de la heroína", una narrativa en la que la mujer no solo cuida, sino que como en tantas cosas, debe hacerlo con excelencia permanente.

No basta con incluir más mujeres en equipos técnicos si la lógica estructural permanece intacta. "Como plantea el MIT en su propuesta de Design Justice, es necesario el "hard-coding liberation": reconocer que el racismo y el sexismo ya están codificados en la tecnología y corregirlos desde la raíz. Para ello hay que programar la equidad desde el diseño, implementar auditorías interseccionales permanentes, establecer gobernanza pública y estándares de transparencia, acompañar el avance técnico con alfabetización crítica que enseñe a cuestionar, no solo a consumir", señala. Y, cabría agregar, quitar la propiedad de la IA de las manos de varones blancos ultraderechistas, o regularla estrictamente.

Una IA bien entrenada tiene un potencial transformador único: puede detectar brechas de género o falta de representación que el ojo humano dormido por la costumbre, ya no es capaz de ver. "Necesitamos una inteligencia artificial bien diseñada que deje de rentabilizar la polarización y empiece a entrenarse en la complejidad humana", concluye El espejismo.

Página 12

 

Contactar con La Haine

 

Este sitio web utiliza 'cookies'. Si continúas navegando estás dando tu consentimiento para la aceptación de las mencionadas 'cookies' y la aceptación de nuestra política de 'cookies'.
o

La Haine - Proyecto de desobediencia informativa, acción directa y revolución social

::  [ Acerca de La Haine ]    [ Nota legal ]    Creative Commons License ::

Principal