¿Y SI ALEXA FUERA HOMBRE? (Parte 1)

REFLEXIONES SOBRE LA INTELIGENCIA ARTIFICIAL Y LOS SESGOS DE GÉNERO

(A propósito del mes de la mujer)

Marzo es el mes que celebra a la Mujer y como siempre el entorno invita a reflexionar sobre los grandes desafíos a los que nos enfrentamos ante el avance vertiginoso de la era digital.

Uno de los temas de debate que comienza a dominar la agenda pública global, es el referido a la llegada de la inteligencia artificial y los riesgos derivados de los sesgos culturales y de género que amenazan con replicar el ya caduco modelo patriarcal, poniendo en alerta máxima a quienes trabajan para construir una sociedad más igualitaria y diversa.

Según el World Economic Forum, en su Informe sobre la Brecha Global de Género 2023 , las mujeres representan sólo el 26% de todos los puestos informáticos a nivel mundial, y en el caso de las mujeres negras y latinas, las estadísticas son aún peores: combinadas, representan aproximadamente el 5% de todos los puestos informáticos.

Esto deja en evidencia que los tomadores de decisiones y programadores de productos de IA son mayormente hombres. Es obvio que a la hora de crear estos aparatos lo hacen basados en su sistema de creencias. No parece casual entonces que la mayoría de los asistentes virtuales, tengan nombre de mujer y voz de mujer, los ejemplos son reiterativos, Siri, Cortana, Alexa.

Si bien sabemos que muchos estudios provenientes de la psicología y también del marketing, coinciden que atribuir rasgos del género femenino a asistentes virtuales, IA, robots, aumentan la percepción de sensibilidad hacia estos artefactos haciéndolos ver más humanos, cálidos y serviciales lo cual orienta las grandes estrategias comerciales, También es claro que se han detectado sesgos de género al momento de desarrollar estos productos.

Un ejemplo de esto ocurrió con el gigante Apple que se vio obligado a cambiar su programación luego de una investigación pertinente de la División para la Igualdad de Género de la Unesco. Ocurrió que muchos usuarios llamaban a Siri, “perra” (bitch) mientras ella respondía «Me sonrojaría si pudiera».  La investigación de la Unesco, obligó a la empresa a cambiar lo que decía Siri en la siguiente actualización por: «No estoy segura de qué es lo que esperas con estas palabras».

Los sesgos existen y no solo los de género, sino también culturales, religiosos, etc y aquellos derivados de sistemas de creencias reñidos con valores más elevados.

Si Alexa fuera hombre también sería afectada por ellos. De ahí que atenderlos es el gran desafío al que se enfrenta la sociedad y el mundo empresarial. Te cuento más en el próximo articulo…

Abrir chat
Consultanos por acá en WhatsApp
Hola! ¿En qué podemos ayudarte?