Publicidad
Publicidad

¿Es posible que los algoritmos sean sexistas?

Los algoritmos heredan los sesgos humanos y tiene su origen en la falta de representación de las mujeres en los procesos de diseño.
lun 31 mayo 2021 05:18 AM
Las marcas que toman cartas en el asunto de la violencia de género
Las marcas que toman cartas en el asunto de la violencia de género

El mes pasado Facebook tuvo que enfrentar acusaciones de que su algoritmo para el motor de búsqueda de empleos favorecía, al mostrarles puestos mejor remunerados, a hombres sobre las mujeres, a quienes en cambio sólo les enseñaban empleos relacionados con la atención a cliente.

Antes, en 2014, fue el turno de Amazon: el algoritmo que desarrolló para reclutar a su personal le daba preferencia a los hombres en áreas que habían sido masculinizadas hasta entonces.

¿Es posible que los algoritmos sean sexistas? De acuerdo con Maria Elena Estavillo, sí.

Estavillo es excomisionada del Instituto Federal de Telecomunicaciones y también forma parte de la organización Conectadas, cuyo objetivo es promover la igualdad en sectores de telecomunicaciones, tecnología y TIC. Y para ellas, los algoritmos no son sexistas por sí mismos, sino que heredan los sesgos de quienes los programan.

Publicidad

“Vivimos en una sociedad patriarcal y, al final, eso tiene una incidencia en la mayoría de los aspectos que rigen la vida. Y no es una conducta exclusiva de hombres, sino que también hay mujeres que reproducen estos sesgos”, apunta.

Como ejemplos, señala que la configuración de algoritmos ha reproducido prácticas discriminatorias alrededor de comunidades que de por sí ya son marginalizadas, como las mujeres, migrantes o incluso personas de la tercera edad, porque -según sus palabras- sus diseñadores los crean con base en estereotipos de género y clase.

“La elaboración de un algoritmo también depende de que hay pocas mujeres que participan en el proceso de diseño de los mismos. No están tomando decisiones ni ofreciendo sus conocimientos, que muchas veces también parten de experiencias que les atraviesan de forma personal”, agrega.

La falta de representación de las mujeres es delicada, señala, ya que 50% de la población no está representada en ofertas de servicios, productos o siquiera políticas públicas. Y el problema está desde el momento en el que los criterios para recabar la información no son cuestionados.

"El sesgo algorítmico es un problema humano, no técnico”, dice SocialTIC, una organización sin fines de lucro dedicada a la investigación. Se define como el reflejo de un sistema informático de los valores de las personas implicadas en la codificación y recolección de datos usados para crear el algoritmo. El estudio de SocialTIC advierte que estos sesgos pueden agravar la discriminación pro motivos de género, sexualidad o diversidad étnica.

Pamela Soria, economista y líder del equipo de Winnin, una empresa que se dedica a dar asesoría a grandes marcas con base en análisis de data, afirma que quienes se encargan de interpretar la información tienen la responsabilidad de complementar el estudio con técnicas cualitativas, no sólo cuantitativas.

Otra acusación para Facebook por anteponer ganancias a contenido problemático

Publicidad

“Quienes nos dedicados a esto tenemos que entender que trabajamos con un sesgo de origen, porque los algoritmos son diseñados, en su mayoría, por programadores y en su mayoría son hombres. Y ya de entrada, ahí excluyes la perspectiva de mujeres o personas no binarias”, afirma.

Para Soria, un algoritmo busca tomar decisiones más rápidas, pero éstas no necesariamente son más precisas. “Desde hace cinco años que la data se vende como panacea y como si fuera completamente irrefutable. De ahí la importancia de la big data, esa rama que sí contempla el análisis de otros factores que influyen a quienes recabaron la información, pero también variables adicionales de la información, como factores culturales y sociales”, sostiene.

La toma de decisión a partir de datos es una práctica común en casi todas las empresas, sobre todo en el rubro de la publicidad. Sin embargo, apunta la especialista, cuando no se consideran los factores sociales en su interpretación, además de reproducir prácticas discriminatorias, se alejan de sus objetivos.

“Las marcas grandes no toman decisiones que no estén basadas en datos. Por ejemplo, el caso de la última campaña de Fud, que fue súper golpeada en internet (se refiere a la lanzada con motivo del Día de las Madres). Para que saliera una campaña con ese nivel de difusión alguien del equipo seguramente hizo algo de social listening (supervisar conversaciones sobre la marca), pero el trabajo no termina ahí. En ese caso debieron distinguir la voz de la conversación digital que analizaron y de los prejuicios desde los que los participantes hablaron”, explica.

La especialista recomienda capacitaciones de temas relacionados con discriminación y derechos humanos con el fin de obtener análisis más profundos, además de configurar equipos más diversos que puedan compartir, de forma personal, experiencias que ellos mismos han vivido por sus circunstancias.

Publicidad

Tags

AplicacionestecnologíaTecnologíacomputadorasCeBIT

Recomendaciones

Health Café

Publicidad