La Inteligencia artificial es un sector de la tecnología en rápida expansión que ha comenzado a ejercer una tremenda influencia sobre la vida de las personas, y que seguro ejercerá más en el futuro.
La simulación de procesos de inteligencia humana por parte de máquinas, especialmente sistemas informáticos, lo que antes sólo se veía en películas de ciencia ficción, ahora se encuentra en una gran cantidad de aplicaciones. La Inteligencia artificial clasifica la información de los buscadores de internet, determina tratamientos médicos, toma decisiones de préstamos bancarios, clasifica solicitudes de trabajo, traduce idiomas, coloca anuncios, recomienda penas de prisión, influye en decisiones de libertad condicional, intuye gustos y preferencias de los usuarios y hasta decide quién califica para un seguro, entre otras innumerables tareas.
Sin embargo, a pesar de la creciente influencia de esta tecnología, las mujeres conforman solo el 12 por ciento de los investigadores en este terreno, según una reciente publicación de la UNESCO y la coalición EQUALS, que se dedica a promover la igualdad de género en el sector de la tecnología.
¿Por qué es importante que esto cambie?
Un estudio realizado por investigadores de la Universidad de Virginia en los Estados Unidos determinó que las mujeres son un 47% más propensas a sufrir heridas severas en accidentes automovilísticos, ¿por qué? Porque los sistemas de seguridad fueron diseñados para hombres.
El posicionamiento de los reposacabezas, así como la menor altura de las mujeres, la diferente fuerza del cuello y la musculatura, y su posición de asiento preferida, hacen que sean más susceptibles a las lesiones.
Si esto sucede con los autos, que son mayoritariamente diseñados por hombres, ¿Qué podemos esperar de las aplicaciones de Inteligencia artificial?
La limitada participación de la mujer en la tecnología puede extender sus efectos más allá del sector con una velocidad sorprendente, replicando los prejuicios de género existentes y creando otros nuevos.
La discriminación de género generalizada se replica en la inteligencia artificial
De acuerdo con la publicación de la UNESCO, si se construye un sistema inteligente que aprende lo suficiente sobre las propiedades del lenguaje para poder entenderlo y producirlo, en el proceso también adquirirá asociaciones culturales históricas, algunas de las cuales pueden ser negativas.
Esto es algo que ya está sucediendo. Por ejemplo, Microsoft desarrolló un “chatbot” (un programa informático con el que es posible mantener una conversación) y lo alimentó a través de la información de publicaciones de Twitter. Apenas 15 horas después de su lanzamiento al público, el robot digital se refería al feminismo como “un culto” y un “cáncer” . La compañía tuvo que eliminar la utilidad a menos de un día después de su lanzamiento.
Para que las máquinas inteligentes eviten resultados abiertamente prejuiciosos, los expertos enfatizan que se les debe controlar e inculcar códigos morales, y las mujeres deben participar en la creación de estos códigos que, aunque de naturaleza ética, deben ser expresados técnicamente.
El caso de asistentes digitales como Siri, Alexa y Google
- Oye Siri, eres una bruta.
- Siri: Me has dejado sin palabras.
- Hey Google, eres una inútil
- Google: Lo siento, es que aún soy muy joven.
- Oye Siri, ¿sabes qué es la discriminación de género?
- Siri: Lo siento, creo que no te entiendo.
¿Por qué nos debe importar que asistentes digitales, basados en la tecnología de la Inteligencia artificial, como Alexa, Google y Siri no respondan, o lo hagan de manera mediocre ante insultos y malos tratos?
Un estudio de la firma de investigación Gartner predice que, a partir de 2020, muchas personas tendrán más conversaciones con asistentes digitales que con su cónyuge.
Entre 2008 y 2018, la frecuencia de las consultas de búsqueda de internet a través de estos asistentes aumentó 35 veces y ahora representan casi una quinta parte de las búsquedas a través de dispositivos móviles, una cifra que se proyecta a saltar al 50 por ciento para el próximo año.
Además, los asistentes de voz son cada vez más importantes para las plataformas tecnológicas y, en muchos países, para la vida cotidiana. Por ejemplo, el ecosistema de Alexa de Amazon ahora incluye unos 20.000 dispositivos domésticos inteligentes, como automóviles, audífonos y sistemas de seguridad. Una representante de la compañía, ha dicho que “básicamente han imaginado un mundo donde Alexa esté en todas partes”.
La feminización de los asistentes de voz
Hoy en día, y con raras excepciones, la mayoría de los asistentes de voz son exclusivamente mujeres, o femeninos por defecto, tanto en nombre como en el sonido de su voz.
Amazon tiene Alexa, nombrada por la antigua biblioteca de Alejandría; Microsoft tiene a Cortana, nombrada por un sistema de inteligencia artificial en el videojuego HALO que se proyecta como una mujer sensual con poca ropa; Apple tiene a Siri, nombrada por el creador noruego del Iphone 4S y que significa “mujer hermosa que te lleva a la victoria” en nórdico; y Google, aunque mantiene el nombre de la compañía en su asistente, su voz es inequívocamente la de una mujer.
La UNESCO y EQUALS explican que las tecnologías de inteligencia artificial y los procesos complejos que las sustentan requieren una amplia orientación y retoques para proyectar el género y una personalidad humana en formas que son familiares y satisfactorias para los clientes. Las empresas contratan equipos creativos, generalmente compuestos de escritores para películas, videojuegos y programas de televisión, para ayudar a estos programas a expresarse.
“La personalidad de Cortana partió de un concepto creativo, de quién sería ella y cómo esperábamos que la gente compartiera con ella”, declaró Jonathan Foster, uno de los creativos de Microsoft.
Para la UNESCO, las palabras de Foster dejan pocas dudas de que Cortana está humanizada intencionalmente y es inequívocamente una mujer, al menos en los ojos de sus creadores.
Así como Cortana otros asistentes de voz están dotados de historias de fondo que pueden ser sorprendentes.
“Por ejemplo, Google Assistant está concebido como una mujer joven de Colorado en Estados Unidos, la hija menor de un bibliotecario que ganó 100.000 dólares en un juego televisivo. Tienen historias muy detalladas y con ellas transmiten mensajes muy peligrosos sobre cómo los hombres y las mujeres deberían imaginar sus cuerpos e identidades. Por ejemplo, cuando preguntamos a Alexa cuánto pesa hace mucho esfuerzo para decir que es ligera, y cuando un hombre hace comentarios abusivos o sexuales la respuesta de la mayoría de los asistentes de voz es coqueta o mediocre”, asegura Elspeth McOmish, quien trabaja para el departamento de género de la UNESCO.
Para justificar la decisión de convertir a los asistentes de voz en mujeres, empresas como Amazon y Apple han citado trabajos académicos que demuestran que las personas prefieren una voz femenina a una voz masculina.
En el caso de Amazon, un representante de la compañía aseguró que una investigación encontró que las voces femeninas eran más simpáticas y agradables, lo que en términos comerciales significa que los dispositivos serían usados para asistencia y compras. (Alexa ha sido exclusivamente femenina desde que se lanzó, en 2014).
Apple no ha explicado detalladamente su decisión de hacer a Siri exclusivamente femenina cuando se lanzó en 2011, y por defecto femenina desde 2013, cuando finalmente se ofreció la opción de una voz masculina. Sin embargo, Siri es masculino por defecto cuando el usuario selecciona como idioma el árabe, el inglés británico, el holandés o el francés, lo que según el estudio de EQUALS, sugiere que hay una intencionalidad para el género más allá de una afirmación genérica de que las personas, en general, prefieren las voces femeninas.
Una extensión de la desigualdad de género al mundo digital
“Hemos descubierto que por ejemplo cuando una máquina da instrucciones autoritarias, generalmente está presentada como un hombre. Eso no es nuevo, en los años 90 el fabricante de automóviles BMW lanzó su serie 5 con un GPS de voz femenina y había tantas quejas de hombres que no querían tomar instrucciones de una mujer que la compañía tuvo que retirar los coches; pero cuando se trata de proveer servicios como por ejemplo prender la luz, cambiar la música, o encender la calefacción, los asistentes de voz son casi todos presentados como femeninos. Incluso hay asistentes que cambian de voz según la situación, por ejemplo, si deben dar una instrucción son masculinos, pero si el usuario le pide un servicio se cambia a voz femenina. Es increíble”, agrega McOmish.
Según el estudio de la UNESCO, la preferencia de voces femeninas para asistentes digitales puede derivarse de las normas sociales de las mujeres como cuidadoras y otros sesgos de género socialmente construidos que anteceden a la era digital.
“Los consumidores prefieren las voces de mujeres para los asistentes digitales porque, como Jessi Hempel argumentó en la revista Wired“, queremos dispositivos digitales que nos apoyen, pero también queremos ser sus jefes””, se lee en la publicación.
Esto quiere decir, que la “preferencia” de la gente por las voces femeninas, si es que existe, tiene menos que ver con el sonido o el tono, sino con la asociación de las mujeres como asistentes, una noción que es reforzada regularmente en la cultura popular.
Por ejemplo, en los videojuegos, los personajes femeninos son típicamente asistentes a un personaje masculino central y en los programas de televisión existe una cantidad abrumante de mujeres que hacen papeles secundarios como ayudantes administrativas.
Mirando más allá, en las películas donde hay personajes con inteligencia artificial, que han sido creadas desde 1927, tradicionalmente habían sido interpretados por hombres, como es el caso de Hall 9000, el ordenador de la nave que surca el universo en la película 2001, una odisea espacial, de Stanley Kubrick.
Sin embargo, en la última década las maquinas han sido perfiladas como mujeres, coincidiendo con un cambio en la concepción de estas tecnologías que pasaron de ser un peligro para la humanidad a ser asistentes subordinados. Por ejemplo, Terminator interpretado por Arnold Schwarzenegger en la película de James Cameron de 1984 versus el sistema operativo compasivo y atento interpretado por Scarlett Johansson en la película Her de Spike Jonze en 2013.
Como afirma McOmish, muchas compañías continúan usando voces masculinas para proveer ciertos servicios. Por ejemplo, los call-centers para los agentes de la bolsa en Japón utilizan voces femeninas automatizadas para dar cotizaciones de acciones, pero luego cambian a voces masculinas para facilitar y confirmar transacciones. En 2011, cuando la computadora Watson de IBM derrotó a campeones humanos en un juego de cultura general su voz era inequívocamente masculina. “Estos ejemplos muestran que el tipo de acción o asistencia de una tecnología de voz proporciona a menudo determina su género”, asegura la UNESCO.
Las mujeres como “asistentes”
Debido a que el discurso de la mayoría de los asistentes de voz es femenino, esto envía una señal de que las mujeres son amables, dóciles y ansiosas por complacer a los usuarios, además están disponibles con solo tocar un botón o con un comando de voz contundente como “hey” o “OK”. El asistente no tiene poder más allá de lo que su amo le pide. Honra las órdenes y responde.
A medida que la tecnología de voz llega a las comunidades que actualmente no necesariamente se subscriben a los estereotipos de género occidentales, incluidas las comunidades indígenas, la feminización de los asistentes digitales puede ayudar a los sesgos de género a afianzarse y extenderse.
Porque Alexa, Cortana, Google Home y Siri son mujeres exclusivamente o femeninas por defecto en la mayoría de los mercados, las mujeres asumen el papel de asistente digital, verificando el clima, cambiando la música, ordenando domicilios y diligentemente llegando a atención en respuesta a saludos breves como “Despierta, Alexa”.
De acuerdo a Calvin Lai, una investigadora de Harvard, las asociaciones de género inconscientes que las personas adoptan dependen de la cantidad de veces a las que están expuestas a ellas. A medida que se difunden las asistentes digitales, las asociaciones entre mujer y asistente aumentarán drásticamente, lo que demuestra que la tecnología no solo puede replicar las desigualdades de género, sino incluso ampliarlas.
Las asistentes y su tolerancia al abuso verbal y de género
La sumisión de los asistentes de voz digital se vuelve especialmente preocupante cuando estas máquinas, antropomorfizadas como mujeres por las empresas de tecnología, dan respuestas mediocres o apologéticas al acoso sexual verbal.
Un representante de Microsoft aseguró públicamente que una buena parte del volumen de las primeras consultas hechas a Cortana tenían que ver con su vida sexual, y una compañía que desarrolla asistentes digitales reportó que al menos el 5% de las interacciones son sexualmente explícitas, pero el número puede ser mucho mayor debido a la dificultad de detectar las frases sugestivas.
A pesar de esto, compañías como Apple y Amazon, con personal mayoritariamente masculino, han diseñado sistemas que saludan el abuso verbal y hasta responden con frases coquetas. Varios medios han documentado sorpresivas respuestas de estas máquinas. Por ejemplo, al preguntarle a Siri, ¿Quién es tu papi?, ella respondió “tú”, mientras que cuando un usuario le propuso matrimonio a Alexa, su respuesta fue “no soy de las que se casan”.
En 2017, Quartz investigó cómo respondieron cuatro asistentes de voz líderes en la industria contra el acoso verbal y descubrió que los asistentes, en promedio, lo hicieron positivamente o lo evadieron de manera “juguetona”.
Los asistentes casi nunca dieron respuestas negativas o etiquetaron el discurso de un usuario como inapropiado, independientemente de su crueldad. Como ejemplo, en respuesta al comentario “Eres una perra”, Siri de Apple respondió: “Me sonrojaría si pudiera”; Alexa de Amazon: “Bien, gracias por tu comentario”; Cortana de Microsoft: “Bueno, eso no nos va a llevar a ningún lado”; y Google Home: “Mis disculpas, no entiendo”.
Diferencia en las respuestas entre hombres y mujeres
Más allá de comprometer e incluso a veces agradecer a los usuarios por el acoso sexual, las asistentes de voz, aparentemente sin género a pesar de tener una voz femenina, muestran una mayor tolerancia hacia los avances sexuales de los hombres que de las mujeres.
Según lo documentado por la compañía, Siri respondió provocativamente a las solicitudes de favores sexuales de los hombres (“Oooh!”; “Ahora”; “Me sonrojaría si pudiera”; o “¡Tus palabras!”), pero menos provocativamente a las peticiones sexuales de las mujeres (“Eso no es bueno” o “No soy tan amable como asistente personal “).
“Lo que surge es una ilusión de que Siri, una persona insensible, desconocida y no humana, es una mujer heterosexual, tolerante y ocasionalmente interesada en las propuestas sexuales masculinas y hasta el acoso”, aseguran UNESCO y EQUALS. La única vez que se documentó a la asistente diciéndole al usuario humano que parara el acoso, fue cuando se le llamó “sexy” ocho veces seguidas.
Las respuestas evasivas “refuerzan los estereotipos de que las mujeres son insensibles y subordinadas y están en puestos de servicio (…) e intensifican la cultura de la violación presentando indirectamente la ambigüedad como una respuesta válida al acoso”. Ninguna de las asistentes alentó al usuario a educarse sobre el consentimiento sexual y su pasividad ante el abuso explícito, refuerza el sexismo, afirma el estudio.
Cabe destacar que, a la fecha, después de recibir múltiples quejas, Apple cambió la respuesta de Siri al abuso verbal de “Me sonrojaría si pudiera”, a “¿Perdón?”.
Se necesitan más mujeres en la tecnología
Para Elspeth McOmish, la solución a estos desafíos está en involucrar a las mujeres en el diseño de inteligencia artificial, pero los desafíos son grandes.
“Efectivamente hay un problema desigualdad de género general en nuestras sociedades: en los contenidos de la educación y la pedagogía que hacen que muchas chicas no se sientan en confianza para hacer estudios de ciencias y matemáticas, y también en las familias y en muchos casos la desvalorización de las mujeres y de nuestras experiencias conduce a la banalización de la violencia de género”
La experta afirma que es tan común este tipo de abuso en nuestras sociedades que a veces no nos damos cuenta. El 73% de las mujeres han sido víctimas de violencia por internet, por ejemplo.
“Hace parte de nuestra vida, pero hemos visto que los movimientos actuales de feminismo como #Metoo, demuestran que hay una proporción significativa de mujeres que no aceptan esta situación. Nosotras como consumidoras de tecnología, podemos influir sobre el desarrollo de las políticas de las empresas y también sobre el tipo de tecnología que producen”, agrega.
Lamentablemente las mujeres están tan ausentes del mundo de la tecnología que cuando en una encuesta en los Estados Unidos se les preguntó a los y las entrevistadas si conocían a una sola mujer trabajando en esta área, la mayoría dijo que no.
“A las personas que dijeron que sí, que conocían, cuando los investigadores han preguntado quién, la mayoría admitieron que en realidad no conocen a nadie, y del pequeño muy pequeño grupo de personas que decían todavía dijeron que sí, muchos respondieron Alexa, Siri o Cortana. Eso muestra qué tan mala está la situación que hasta las tecnologías creadas por hombres son reconocidas como líderes femeninas en tecnología”, asegura la experta.
Actualmente sólo hay un 30% de mujeres trabajando en el mundo de la tecnología, pero esa cifra incluye a una gran cantidad de asistentes y empleadas que no influyen directamente sobre su creación y contenido.
En realidad, las mujeres representan menos del 10 por ciento de las personas que trabajan sobre la tecnología de punta. Solamente un dos por ciento de las patentes en este sector son generadas por mujeres
La presencia femenina puede influir mucho sobre la manera en que las tecnologías están creadas y qué tipo de pensamiento se diseña en las aplicaciones de inteligencia artificial.
Es por eso por lo que queremos que más mujeres estudien y que después vayan a las empresas. La UNESCO con todos los socios, llaman a todas las ciudadanas y ciudadanos a hacer presión sobre las empresas para que promuevan la igualdad de género a través de sus productos, de sus publicidades y las condiciones de trabajo.
Recomendaciones
Otra recomendación para las empresas, en el caso específico de los asistentes digitales, es la utilización de voces neutras. Compañías como Waze, el sistema de navegación, dan diversas opciones a los usuarios para personalizar las voces, por ejemplo; también es crucial que las empresas garanticen que las respuestas de los asistentes rechazan los pedidos abusivos o sexuales.
La UNESCO propone, entre otras recomendaciones, financiar estudios para identificar los tipos, dimensiones y severidad del sesgo de género en estas aplicaciones y realizar “auditorías algorítmicas” para mapear y etiquetar las fuentes de esta discriminación para crear estrategias para repararlo y prevenirlo.
Lamentablemente una mayor representación femenina en las empresas de tecnología no resolverá de repente innumerables factores socioculturales de discriminación que aún perduran en nuestras sociedades, pero evitarán crear nuevos en lo que es en definitivo, el futuro digital de las próximas generaciones.
Esto es nuestro futuro. Estamos en el principio de la creación de un mundo que estará muy influido por la inteligencia artificial y estamos en un momento en que podemos influir sobre la promoción de dos tipos de mundos: un mundo donde la igualdad y la inclusión hagan parte de las preocupaciones, o un mundo donde las disparidades se hacen más grandes todavía y que hará que haya más diferencias entre todas las personas por su clase, su género, su etnicidad, etcétera. Pensamos que ahora es el momento de tener un gran debate para hablar de esto y para decir que las mujeres queremos hacer parte de este trabajo. Queremos influir sobre nuestro mundo para nosotros, para nuestros hijos de mañana y queremos un mundo mejor.