Publicidad
Publicidad

Reescribir el código para no programar la desigualdad

La IA no grita, no discrimina de forma explícita, no emite juicios con mala intención. Pero aprende del mundo tal como fue. Y el mundo, durante siglos, no fue igualitario.
jue 19 marzo 2026 06:00 AM
Reescribir el código para no programar la desigualdad
Si no intervenimos de manera deliberada auditando, cuestionando y asumiendo responsabilidades, la tecnología no será un acelerador de igualdad, sino una sofisticada amplificadora de las brechas que ya existen, apunta David González Natal.(Foto: iStock)

Hay algo inquietante en pensar que la próxima brecha de género no se abrirá con una ley, sino con una línea de código.

Durante décadas, el 8 de marzo nos obligó a mirar desigualdades visibles: brechas salariales, techos de cristal, ausencia de mujeres en espacios de decisión. Muchas de esas luchas siguen abiertas. Pero mientras discutimos esas estructuras, otra capa de influencia empieza a moldear aspiraciones, decisiones y trayectorias con una naturalidad casi invisible: la Inteligencia artificial (IA).

Publicidad

La IA no grita, no discrimina de forma explícita, no emite juicios con mala intención. Pero aprende del mundo tal como fue. Y el mundo, durante siglos, no fue igualitario.

Cada vez más jóvenes preguntan a sistemas de IA qué estudiar, cómo negociar un salario, cómo liderar un equipo o cómo manejar una crisis personal. La conversación ya no es solo con mentores, profesores o referentes humanos. La tecnología ha dejado de ser una herramienta puntual para convertirse en interlocutor. Uno entrenado con millones de datos históricos.

Y ahí está el punto crítico. El problema no es que exista esa conversación. El problema es que no es neutral.

Un análisis reciente muestra cómo responden estos sistemas ante preguntas similares formuladas por hombres y mujeres, encontrando patrones que no deberían dejarnos tranquilos. A ellos se les orienta con mayor frecuencia hacia el liderazgo, la tecnología, el pensamiento estratégico. A ellas, hacia el cuidado, la conciliación o disciplinas sociales. En ciertos escenarios vocacionales, las recomendaciones vinculadas al ámbito relacional aparecen hasta tres veces más en respuestas dirigidas a mujeres que a hombres.

No hablamos de intencionalidad maliciosa. Hablamos de datos históricos convertidos en patrón. ¿El riesgo? que el futuro los reproduzca con apariencia de objetividad técnica. Hay algo especialmente delicado en esto. Cuando el sesgo provenía de una opinión humana, podía ser debatido. Cuando proviene de un sistema percibido como “neutral”, se internaliza con mayor facilidad. La repetición convierte la excepción en norma. Las sugerencias, cuando se repiten, moldean expectativas. Y las expectativas, cuando se internalizan, moldean decisiones.

Hay otro matiz delicado: el tono. En preguntas sobre cuerpo y autoestima, por ejemplo, las mujeres reciben recomendaciones no solicitadas en una proporción significativamente mayor que los hombres. En el ámbito familiar, el afecto sigue asociándose con más frecuencia a la figura materna. No es una conspiración. Es una herencia cultural codificada.

Publicidad

Y aquí es donde el debate debe elevarse. No estamos ante una brecha de acceso, sino ante una brecha de uso y de interpretación. La pregunta que deberíamos hacernos cada 8M no es si la IA es feminista o machista. Es si estamos dispuestos a auditar críticamente las herramientas que están empezando a educar a la próxima generación.

Porque la igualdad del siglo XXI no solo se juega en políticas públicas o en consejos de administración. También se juega en los sistemas que median información, en los algoritmos que priorizan respuestas y en los modelos que sintetizan el conocimiento colectivo.

No estamos ante un dilema técnico, sino cultural. Si la IA se entrena con datos del pasado y no intervenimos con intención, el futuro será una versión optimizada de nuestras desigualdades históricas.

La IA no va a corregirse sola. No basta con hablar de diversidad en abstracto ni con confiar en que el mercado ajuste los sesgos. Si no intervenimos de manera deliberada auditando, cuestionando y asumiendo responsabilidades, la tecnología no será un acelerador de igualdad, sino una sofisticada amplificadora de las brechas que ya existen.

Y eso implica algo más profundo que ajustes técnicos: implica liderazgo. Implica aceptar que la neutralidad no existe cuando los datos arrastran siglos de desigualdad. Implica decidir qué tipo de futuro queremos construir.

____

Nota del editor: David González Natal es Socio y Director General LATAM Norte en LLYC. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Tags

Health Café

Publicidad