Foto: Archivo
Foto: Archivo
Tags:

ESTADOS UNIDOS.- Los cada vez más populares asistentes digitales que responden con voz de mujer y están diseñados como ayudantes femeninas están reforzando los estereotipos sexistas, según un informe de Naciones Unidas publicado el miércoles.

La gran mayoría de los asistentes -como Siri de Apple, Alexa de Amazon y Cortana de Microsoft- están diseñados para ser vistos como femeninos, desde sus nombres hasta sus voces y personalidades, dijo el estudio.

Asimismo, están programados para ser sumisos y serviles, incluso para responder de forma cortés a los insultos, lo que significa que refuerzan los prejuicios de género y normalizan el acoso sexista, de acuerdo a investigadores del órgano científico y cultural de la ONU, la Unesco.

Como ejemplo, el estudio destacó que Siri estaba programado previamente para responder a los usuarios que la llamaban “puta” diciendo “Me sonrojaría si pudiera”.

“La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos”, indicó.

Apple, Amazon y Microsoft no estuvieron disponibles de inmediato para comentar el reporte.

Una portavoz de Microsoft dijo anteriormente que la compañía evaluó las opciones de voz para Cortana y halló que “una voz femenina respalda mejor nuestro objetivo de crear un asistente digital”.