“Vivimos en una sociedad patriarcal y, al final, eso tiene una incidencia en la mayoría de los aspectos que rigen la vida. Y no es una conducta exclusiva de hombres, sino que también hay mujeres que reproducen estos sesgos”, apunta.
Como ejemplos, señala que la configuración de algoritmos ha reproducido prácticas discriminatorias alrededor de comunidades que de por sí ya son marginalizadas, como las mujeres, migrantes o incluso personas de la tercera edad, porque -según sus palabras- sus diseñadores los crean con base en estereotipos de género y clase.
“La elaboración de un algoritmo también depende de que hay pocas mujeres que participan en el proceso de diseño de los mismos. No están tomando decisiones ni ofreciendo sus conocimientos, que muchas veces también parten de experiencias que les atraviesan de forma personal”, agrega.
La falta de representación de las mujeres es delicada, señala, ya que 50% de la población no está representada en ofertas de servicios, productos o siquiera políticas públicas. Y el problema está desde el momento en el que los criterios para recabar la información no son cuestionados.
"El sesgo algorítmico es un problema humano, no técnico”, dice SocialTIC, una organización sin fines de lucro dedicada a la investigación. Se define como el reflejo de un sistema informático de los valores de las personas implicadas en la codificación y recolección de datos usados para crear el algoritmo. El estudio de SocialTIC advierte que estos sesgos pueden agravar la discriminación pro motivos de género, sexualidad o diversidad étnica.
Pamela Soria, economista y líder del equipo de Winnin, una empresa que se dedica a dar asesoría a grandes marcas con base en análisis de data, afirma que quienes se encargan de interpretar la información tienen la responsabilidad de complementar el estudio con técnicas cualitativas, no sólo cuantitativas.
Otra acusación para Facebook por anteponer ganancias a contenido problemático