En el espacio digital también hay brechas

Foto de Thisisengineering-raeng (Unsplash)

Lejos de pensar que la Inteligencia Artificial (IA), se basa en datos fríos, lógica y matemática, y que está desprovista de subjetividades o parcialidades en sus procesos, existe evidencia de que las máquinas reproducen sesgos, aprenden sexismo, machismo, racismo y las tendencias de las fuentes de donde se alimentan. El concepto que sobre IA publica el Diccionario de la Real Academia da cuenta de un proceso que lo muestra como aséptico e impoluto “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje y el razonamiento lógico”.

Pero no existe algo así como “datos neutros”, aunque pueda parecerlo, ya que los mismos parten de algoritmos que son construidos por personas con sus propias tendencias, prejuicios y sesgos, por lo que al aplicarlo en la IA se repiten los mismos comportamientos sociales predominantes que observamos en la vida real. Las máquinas aprenden de los humanos, y los humanos somos subjetivos.

Un sesgo es el efecto psicológico que se deriva de un “atajo” en el procesamiento mental. Esta orientación o dirección cognitiva, lleva a una distorsión de lo que cabría esperar de un proceso racional. Los sesgos pueden ser de raza, de clase, de orientación sexual, de género y otras fuentes más de diversidad humana. 

Se han documentado más de 50 tipos de sesgos en los que caemos todos de forma inconsciente y automática, siempre que interpretamos un suceso o explicamos la realidad.

Nadie se salva de este efecto porque, a pesar de que los sesgos, al igual que los estereotipos, están en la base de las discriminaciones e intolerancias, la verdad es que tienen una función evolutiva y defensiva. Ellos nos permiten orientarnos en entornos complejos, de alta incertidumbre, facilitando los procesos de pensamiento para tomar decisiones rápidamente. Pero sus efectos, cuando no se les gestiona adecuadamente, puede generar decisiones mal fundamentadas e injusticias, sobre todo cuando se trata de temas complejos.

Es una ilusión pensar que los datos de los cuales se dispone en el diseño y alimentación de procesos que involucran los proyectos de IA, son diversos y representativos de todas las realidades a pesar de contar con altos volúmenes de ellos. A menudo, la data proviene de los grupos que están en el poder, o con características de vida homogéneas, que no representan la generalidad de reacciones y pensamientos globales, y esto, así como otros factores que veremos a continuación, ya preconfigura un sesgo importante.

«Es una ilusión pensar que los datos de los cuales se dispone en el diseño y alimentación de procesos que involucran los proyectos de IA, son diversos y representativos de todas las realidades a pesar de contar con altos volúmenes de ellos.»

Diferentes estudios lo demuestran

La Organización de las Naciones Unidas para la Cultura, las Ciencias y la Educación (UNESCO) publicó en 2019 el informe “ I’d Blush if I Could: closing gender divides in digital skills through education” (Me sonrojaría si pudiera: cerrando brechas de género en la esfera digital a través de la educación).

En el mismo se demuestran que “los sesgos de género que persisten en los conjuntos de datos, algoritmos y dispositivos de capacitación de la inteligencia artificial tienen el potencial de propagar y reforzar estereotipos de género perjudiciales. Estos sesgos de género pueden estigmatizar y marginar aún más a las mujeres a escala mundial”.

Una vez más, la historia de rezago de las mujeres en todos los ámbitos de la vida económica, política y social se repite en el campo de las nuevas tecnologías, muy especialmente en el ámbito laboral debido a la automatización del empleo, por ejemplo. Ya el Fondo Monetario Internacional hace muchos años comprobó que las mujeres son más desplazadas que los hombres debido a la automatización en los procesos de reclutamiento y selección, lo cual tiene un efecto negativo en la autonomía financiera de las mujeres, dado que la mayor parte de las posiciones automatizables (administración, oficina, caja, contabilidad) son ocupadas por mujeres, en reflejo del estereotipo que supone que las mujeres son mejores para dar apoyo administrativo.

Un ejemplo de cómo estos mismos estereotipos y sesgos de género siguen presentes en las nuevas aplicaciones de la IA, son los chatbots de las webs o asistentes virtuales con nombre y voz de mujer: Alexa de Amazon, Cortana de Microsoft, Siri de Apple, Google Assistant, Eva de Vueling y muchas otras. En su creación se parte del estereotipo de que el rol de las mujeres es asistir y proveer ayudas y soluciones. Asimismo, en la creación de robots femeninas, estas usualmente son hipersexualizadas, destacando y exagerando áreas del cuerpo de las mujeres, dándole aspecto sensual; una especie de fantasía masculina sobre el ideal de ser mujer.

La evidencia es tan abrumadora que, la empresa Gartner, una de las empresas consultoras y de investigación de las tecnologías de la información más importantes a nivel mundial, predice que para 2022, el 85% de los proyectos de IA darán resultados erróneos debido a sesgos en los datos o algoritmos, o en los equipos que los gestionan.

Foto de Xu Haiwei (Unsplash)

La Brecha Digital de Género

La brecha digital de género es un indicador que mide la desigualdad existente entre mujeres y hombres en cuanto al acceso a las TIC (tecnologías de la información y la comunicación).

En la Unión Europea la brecha digital de género en actividades de programación era de 8 puntos en 2014: “las mujeres solo representan el 12% de los autores de artículos en las principales conferencias sobre machine learning y el 13,83% de los que se escriben en general sobre inteligencia artificial”. Por otro lado, un estudio realizado en 2017 demostró que “sólo el 13% de las altas posiciones ejecutivas en empresas tecnológicas dedicadas a la inteligencia artificial son ocupadas por mujeres, y, si nos centramos en el sub ámbito del lenguaje informático, el porcentaje cae hasta el 5%”.

En América Latina, de acuerdo con la organización “Crack The Code”, hay escasez de participación de mujeres en disciplinas de ciencias, tecnología, ingeniería y matemáticas, ocupando únicamente el 20% de los cargos relacionados a esta industria.

En esta misma línea, se ha encontrado que las mujeres conforman solo el 12% de los investigadores en IA y que solamente un 2% de las patentes en este sector son generadas por mujeres, según una reciente publicación de la UNESCO y la coalición EQUALS, que se dedica a promover la igualdad de género en el sector de la tecnología.

Informan que actualmente “sólo hay un 30% de mujeres trabajando en el mundo de la tecnología, pero esa cifra incluye a una gran cantidad de asistentes y empleadas que no influyen directamente sobre su creación y contenido”.

En otro reciente informe de la UNESCO “Para ser inteligente, la revolución digital debe ser inclusiva” (2021) se calcula que menos del 1% de las solicitudes que reciben las empresas que contratan expertos en IA y ciencia de datos son de mujeres:

Las mujeres y las niñas tienen cuatro veces menos probabilidades de tener conocimientos de programación informática y trece veces menos probabilidades de registrar patentes tecnológicas. También es menos probable que tengan acceso a puestos de dirección en empresas tecnológicas”.

Por lo tanto, para reducir las brechas que inducen a pensar de manera sesgada, es fundamental que las mujeres formen parte de las estrategias de formación y capacitación en las TICs y las carreras STEM (ciencias, tecnología, ingeniería y matemáticas, por sus siglas en inglés), potenciar su alfabetización digital y al mismo tiempo visibilizar su presencia en estas posiciones, para mostrar que la programación y las ciencias “duras” no tienen que ser exclusivamente asuntos varoniles.

El uso de la Inteligencia Artificial puede promover la igualdad

La IA puede tener un impacto diferenciado sobre hombres y mujeres, por lo que aplicar perspectiva de género en todos los procesos involucrados en el “machine learning”, es fundamental para no reforzar inequidades y exclusiones.

Si se aplica perspectiva de género en la IA mitigando los sesgos presentes en los procesos de pensamiento envueltos en estos desarrollos, la misma tecnología puede contribuir a disminuir la desigualdad entre hombres y mujeres, al detectar e identificar las causas que la originan y proponer soluciones que eviten incurrir en decisiones sesgadas.

Para ello es importante crear equipos más diversos en el desarrollo de IA, donde las mujeres no sean una minoría. Este paso es importante si se quiere incorporar una perspectiva más amplia en el diseño, desarrollo y aplicación.

Sin duda, la presencia de las mujeres puede influir sobre la manera en que las tecnologías están creadas y el tipo de pensamiento que se usa en las aplicaciones de inteligencia artificial.

Estos equipos a su vez deben formarse en transversalización de igualdad de género para que apliquen este enfoque cuando analizan datos y sean capaces de mirar sus propios sesgos con el fin de mitigarlos. Puede ayudar contar con un líder de “gender balance” en la estructura organizacional, con la función de vigilar para que no se creen algoritmos viciados y se audite con frecuencia los procesos para evitar incurrir en estas distorsiones y sus indeseables efectos. Usar lenguaje inclusivo y no genérico masculino en los protocolos de interacción es fundamental para evitar la exclusión que se deriva de un modo de hablar que invisibiliza a las mujeres sistemáticamente.

Necesitamos más mujeres que participen y lideren activamente el proceso de diseño de la robótica e inteligencia artificial para que estas tecnologías reflejen de manera incluyente, la diversidad de pensamiento, experiencias
y visiones de ambos sexos.

Susana Reina

Susana Reina es Psicóloga y Feminista venezolana. Directora Fundadora de Feminismoinc y Presidenta de la Alianza Venezolana Empresarial por el Liderazgo de las Mujeres (AVEM). Vicepresidenta de Desarrollo Corporativo del Grupo Multinacional de Seguros. Socia fundadora de FemData México.

Master en Gerencia de Empresas y Mercadeo. Especialista en Políticas Públicas con enfoque de género. Coach Ontológico Empresarial.

Columnista de Efecto Cocuyo.

Últimos Artículos

Sí, las mujeres somos muy emocionales

Hay muchas más pruebas de que las mujeres han sido excluidas de espacios de decisión a causa de la biología de las emociones. A esta forma de discriminación se le llama neurosexismo.Fuente: Engin Akyurt (Unsplash)Expresar emociones ha dejado a muchas mujeres fuera de...

leer más

Otros Artículos

Otros

Un modelo de Turismo Generativo

Fuente: Freepik (PCH Vector)Mi nombre es Isabel Sánchez Tejado y mi trabajo consiste en ayudar a los responsables de los territorios rurales que están en riesgo de despoblación, a transformarlos en destinos turísticos sostenibles, mediante el Método de Turismo...

leer más

Percepción de la vejez en los jóvenes

Foto de Killarn Peralta en Unsplash La juventud se retroalimenta de juventud. La juventud, a quien ya desde su infancia le han llegado mensajes pregonando que la juventud es la mejor época de la vida, a la que le han injertado desde los medios de comunicación que la...

leer más