Según un informe de la organización, las voces de Inteligencia Artificial refuerzan el estereotipo de que las mujeres son ‘ayudantes dóciles y dispuestas a agradar’.

MVS

CALIFORNIA. Siri, Alexa y Google Assistant tienen voz de mujer y eso, para la Organización de las Naciones Unidas (ONU), es un problema.

Un informe publicado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO por sus siglas en inglés), señala que el uso de voces femeninas para dar vida a los asistentes virtuales refuerza el estereotipo de que las mujeres son «ayudantes dóciles y con ganas de complacer, que están disponibles con solo tocar un botón o dar un comando de voz».

Según la UNESCO, los asistentes están programados para ser sumisos e incluso, para responder de manera educada a los insultos. Según el organismo oficial, esto normaliza el acoso sexista y hace ver que las mujeres son «subordinadas y tolerantes con el mal trato». Además, dice la organización, «refuerza los prejuicios de género».

Siri, de Apple y Cortana, de Microsoft ofrecen la opción de voces masculinas en su configuración, pero siempre se encuentran con voces femeninas por defecto. Amazon por su parte, tiene a Alexa disponible con varios acentos, aunque todas sus voces son femeninas.

No hay comentarios

Dejar respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.