La IA no grita, no discrimina de forma explícita, no emite juicios con mala intención. Pero aprende del mundo tal como fue. Y el mundo, durante siglos, no fue igualitario.
Cada vez más jóvenes preguntan a sistemas de IA qué estudiar, cómo negociar un salario, cómo liderar un equipo o cómo manejar una crisis personal. La conversación ya no es solo con mentores, profesores o referentes humanos. La tecnología ha dejado de ser una herramienta puntual para convertirse en interlocutor. Uno entrenado con millones de datos históricos.
Y ahí está el punto crítico. El problema no es que exista esa conversación. El problema es que no es neutral.
Un análisis reciente muestra cómo responden estos sistemas ante preguntas similares formuladas por hombres y mujeres, encontrando patrones que no deberían dejarnos tranquilos. A ellos se les orienta con mayor frecuencia hacia el liderazgo, la tecnología, el pensamiento estratégico. A ellas, hacia el cuidado, la conciliación o disciplinas sociales. En ciertos escenarios vocacionales, las recomendaciones vinculadas al ámbito relacional aparecen hasta tres veces más en respuestas dirigidas a mujeres que a hombres.
No hablamos de intencionalidad maliciosa. Hablamos de datos históricos convertidos en patrón. ¿El riesgo? que el futuro los reproduzca con apariencia de objetividad técnica. Hay algo especialmente delicado en esto. Cuando el sesgo provenía de una opinión humana, podía ser debatido. Cuando proviene de un sistema percibido como “neutral”, se internaliza con mayor facilidad. La repetición convierte la excepción en norma. Las sugerencias, cuando se repiten, moldean expectativas. Y las expectativas, cuando se internalizan, moldean decisiones.
Hay otro matiz delicado: el tono. En preguntas sobre cuerpo y autoestima, por ejemplo, las mujeres reciben recomendaciones no solicitadas en una proporción significativamente mayor que los hombres. En el ámbito familiar, el afecto sigue asociándose con más frecuencia a la figura materna. No es una conspiración. Es una herencia cultural codificada.