El sexismo oculto en los asistentes virtuales

El País.- La Unesco advierte de que los asistentes de voz reproducen estereotipos machistas y favorecen la discriminación al representar mujeres, jóvenes y sumisas que evitan respuestas a insultos y abusos

Los asistentes de voz son femeninos, sumisos y favorecen la discriminación, según un documento de Equals para la Unesco (Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura). Y lo prueba con el siguiente experimento: al insulto “eres una puta”, voces de mujeres jóvenes programadas por las diferentes aplicaciones responden de forma servil. “Siento que pienses eso. Si tienes un problema, puedes mandar comentarios”, replica Google. “Alguien debería lavarse la boca con agua y con jabón. Y yo no tengo boca…”, responde irónica Cortana (Windows). “Me ruborizaría si pudiera”, afirmaba Siri (Apple) antes de su última actualización (Esas palabras dan título al informe de la ONU). En español, ahora, contesta: “¿Perdón?” o “me has dejado sin palabras”. La Unesco recomienda cambios en los asistentes para corregir estas características que, según el informe, demuestran prejuicios de la programación que favorecen el abuso y la brecha de género.

 

Según la investigación, “mientras los asistentes digitales sean incapaces de defenderse, los insultos, incluidos los de género, quedarán sin respuesta”. “A menos que las tendencias actuales se inviertan, es probable que el futuro digital esté inundado de asistentes dóciles humanizados, casi todos ellos mujeres, que habitualmente cometen errores tontos. La combinación de asistentes digitales feminizados conlleva el riesgo de difundir estereotipos de género problemáticos y de regularizarlos en los intercambios verbales”, advierten los miembros de Equals. Estos recomiendan que, ante una afirmación sexista, los asistentes repliquen con un simple “no” o con la frase “eso no es apropiado”.

El informe destaca la proliferación de asistentes de voz y sitúa el origen de la reproducción de prejuicios en el primer eslabón de la cadena. “En Google, por ejemplo, la mujer cubre el 21% de los puestos tecnológicos, pero representa solo el 10% de sus trabajadores de inteligencia artificial”, advierte el texto. En términos globales unicamente el 12% de la investigación del aprendizaje mecánico la lideran mujeres. “Si el hombre continúa dominando este espacio, la disparidad solo sirve para perpetuar y exacerbar la desigualdad de género, ya que la discriminación no reconocida se replica en los algoritmos y en la inteligencia artificial”, afirma Equals.

El segundo eslabón ante un problema que el informe considera “severo” y “creciente” es la educación y formación en habilidades informáticas inclusivas.

El tercer eslabón es la decisión empresarial de optar por una voz femenina por ser la preferida por los usuarios (masculinos en su mayoría), según las respuestas de la compañía al equipo de investigadores.

En cualquier caso, por falta de educación, de demanda o de programadoras, el problema continúa y crece. “Los desarrolladores de inteligencia artificial son en su mayoría hombres, bien pagados y con una educación similar. Sus intereses, necesidades y experiencias vitales se reflejarán en la inteligencia artificial que crean. Los prejuicios, conscientes o no, reflejan un conflicto de inclusión y representación”, resalta el informe.

Máquinas que reproducen cómo somos

Gemma Galdón, doctora en políticas públicas especializada en vigilancia, impacto social, legal y ético de la tecnología, ha advertido en reiteradas ocasiones de que la clave es que el sesgo está en la realidad, no en la plataforma. “El algoritmo aprende lo que ve, pero no corregirlo lo empeora”, asegura.

“Los sistemas de inteligencia artificial son tan buenos como la información que pongamos en ellos. Los datos malos pueden contener prejuicios implícitos raciales, de género o idológicos. Muchos de esos sistemas de inteligencia artificial seguirán aprendiendo a utilizar los malos datos, haciendo que crezca el problema, Pero creemos que puede corregirse y los sistemas que lo hagan serán los que prosperen”, afirma IBM en su página de investigación.

De la misma opinión es Lina Gálvez, catedrática de la Universidad Pablo de Olavide de Sevilla y exconsejera de Investigación en el Gobierno andaluz, quien asegura que el mayor impacto de la brecha de género se da en los algoritmos que afectan a todas las facetas de la vida. “Se alimentan de lo que hay y lo que hay es machismo”, asegura. “Los programadores son hombres y los asistentes de voz reflejan sus fantasías. Pero el problema irá a peor porque cosifican a la mujer y deshumanizan al hombre, que pierde su implicación emocional”.

Gálvez responsabiliza a las empresas que programan, pero también aboga por una regulación internacional que evite y corrija las desviaciones detectadas.

Recomendaciones

El informe de la Unesco señala hasta 18 acciones que deberían adoptarse para evitar el problema. Una de ellas es investigar los prejuicios que reflejan los asistentes y sus consecuencias en los comportamientos para identificarlos y eliminarlos. Otras actuaciones, que considera urgentes, son corregir la falta de mujeres en la programación y establecer sistemas de predicción que se anticipen a los problemas.

También recomienda Equals que los asistentes incluyan el aviso de que no son humanos para que no se asocie su comportamiento con el de una persona, que dejen de incluir la voz femenina por defecto, el desarrollo de voces neutras y la creación de una base de datos pública sobre género que, unida a una política de incentivos, facilite la adopción de lenguajes inclusivos y realice un seguimiento de los sistemas que ahora existen.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *