Durante años dimos por hecho que la tecnología operaba bajo una lógica objetiva, ajena a los sesgos de la vida cotidiana. Se entendía como un espacio técnico, donde las decisiones se tomaban con base en datos y no en percepciones. Sin embargo, a medida que la Inteligencia Artificial (IA) empieza a formar parte de procesos cada vez más presentes —desde lo que vemos hasta cómo se toman ciertas decisiones—, esa idea comienza a matizarse.
La brecha de género en la era de la Inteligencia Artificial
Pero esa idea de objetividad tiene un punto de partida que no siempre se hace visible. La IA aprende de datos, de decisiones previas y de patrones históricos que reflejan cómo funciona el mundo hoy. Y ese mundo, como sabemos, está lejos de ser neutral. No es casualidad que distintos organismos internacionales hayan advertido que estos sistemas pueden reproducir —e incluso amplificar— desigualdades de género ya existentes.
En la práctica, esto no siempre se percibe de forma directa, pero empieza a reflejarse en lo cotidiano: en los perfiles que se priorizan, en cómo se entienden ciertos roles o en los contenidos que se vuelven más visibles. No es algo nuevo. Son patrones que ya estaban ahí y que, al pasar por estos sistemas, tienden a repetirse.
El punto de fondo, entonces, no es solo técnico. Es de origen. ¿Quién está diseñando estos sistemas? ¿Quién decide con qué información se entrenan y qué se considera relevante? Hoy, esas decisiones siguen concentrándose en espacios donde la diversidad es limitada. Y cuando quienes construyen estas herramientas no representan la diversidad del mundo real, los resultados difícilmente lo harán.
Esto no solo se juega en el diseño de estas tecnologías, sino también en quién las utiliza y las incorpora en su día a día. No todas las personas se acercan a estas herramientas desde el mismo lugar. Mientras algunas las integran con rapidez, otras lo hacen con mayor cautela, ponderando sus implicaciones antes de adoptarlas. Esa diferencia, aunque parezca sutil, empieza a influir en cómo se organiza el trabajo, en qué tareas se automatizan y en quién participa en los espacios donde se toman decisiones.
A partir de ahí, la pregunta ya no es si la IA es o no neutral, sino qué hacemos con las condiciones bajo las cuales se está desarrollando. Porque, más allá de la tecnología en sí, lo que está en juego es cómo se distribuyen las oportunidades en este nuevo entorno. Distintos análisis ya advierten que, si no se corrige a tiempo, esta transición podría ampliar brechas que creíamos en proceso de cierre.
La brecha no se va a cerrar sola
Si algo muestran los análisis recientes es que la brecha no se va a cerrar por inercia. La tecnología avanza rápido, pero las condiciones en las que se adopta no necesariamente cambian al mismo ritmo. Por eso, más que esperar a que el acceso se equilibre por sí solo, el reto está en generar espacios donde más personas puedan entender, probar y apropiarse de estas herramientas desde su realidad cotidiana: no como algo lejano o especializado, sino como parte del trabajo diario.
Pero no se trata solo de uso, sino de participación en decisiones más profundas. La discusión sobre IA suele centrarse en quién la utiliza, cuando en realidad también importa quién define cómo funciona: qué problemas busca resolver, qué información se considera relevante y bajo qué criterios se toman decisiones. Mientras esas definiciones sigan concentradas en los mismos perfiles, difícilmente veremos resultados distintos.
Y hay un tercer punto que no debería perderse de vista. Las habilidades que empiezan a marcar diferencia en este nuevo entorno no pueden convertirse en un nuevo filtro. Si el acceso a estas herramientas —y al conocimiento que las acompaña— no es parejo, el riesgo no es menor. No es solo que algunas personas avancen más rápido, sino que otras queden fuera de los espacios donde se está redefiniendo el trabajo.
La IA no es un fenómeno ajeno, es el reflejo de las decisiones que estamos tomando hoy. Pensarla como una herramienta neutral puede ser cómodo, pero también limita la conversación. Porque, al final, no se trata solo de qué puede hacer la tecnología, sino de cómo elegimos desarrollarla y quién forma parte de ese proceso. Ahí es donde realmente se juega su impacto.
____
Nota del editor: Laura Tamayo es directora de Asuntos Públicos y Sustentabilidad en Bayer México. Síguela en LinkedIn . Las opiniones publicadas en esta columna pertenecen exclusivamente a la autora.
Consulta más información sobre este y otros temas en el canal Opinión