iPhoneのSiriなど、音声アシスタントの利用が、女性差別を助長し固定化している、との報告書をUNESCO(国際連合教育科学文化機関)が発表しました。音声が女性であることが「女性は従属的な存在」というジェンダーバイアスにつながると指摘しています。 ユーザーの横柄な命令にも従順な「女性」アシスタント UNESCOのジェンダーバランスに関する研究グループ「EQUALS」が公開した報告書のタイトル「I’d blush if I could(私が赤面できたら、しています)」は、性的な質問をされた時のSiriの回答から借用したものだそうです。 報告書は、Siri、Googleアシスタント、Amazon Alexa、Microsoft Cortanaといった、人工知能(AI)を活用した音声アシスタントの声は、女性しか選べないか、初期設定が女性となっている、と指摘しています。 そして、ユーザーからの