革新的な対話型AI(人工知能)として利用が広がっている「ChatGPT」(チャットGPT)が、飛行士を男性的、看護師を女性的と捉えるなど、職業に対しジェンダーバイアスを持っていることが朝日新聞の分析でわかった。専門家は、適切な処置が取られないまま使われれば、性差による差別や偏見が再生産される恐れがあると指摘する。 AIは、ネット上などにある大量のデータを学習して答えを出す。このためAIの多くが、もとのデータに含まれるバイアスを反映した偏りを持つことが、東京工業大の岡崎直観教授らの研究で以前から知られていた。ただ、昨秋に登場したチャットGPTが、どれほどのジェンダーバイアスを持つのかについての日本語の研究はなかった。 そこで朝日新聞社メディア研究開発センターは、岡崎教授の監修のもと、9月段階の無料版のチャットGPT―3・5に、30職業の男女観を計3千回質問。バイアスがある回答は41・5%に上