エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント11件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
飛行士は男、看護師は女…ChatGPT、職業にジェンダーバイアス:朝日新聞デジタル
革新的な対話型AI(人工知能)として利用が広がっている「ChatGPT」(チャットGPT)が、飛行士を男性的... 革新的な対話型AI(人工知能)として利用が広がっている「ChatGPT」(チャットGPT)が、飛行士を男性的、看護師を女性的と捉えるなど、職業に対しジェンダーバイアスを持っていることが朝日新聞の分析でわかった。専門家は、適切な処置が取られないまま使われれば、性差による差別や偏見が再生産される恐れがあると指摘する。 AIは、ネット上などにある大量のデータを学習して答えを出す。このためAIの多くが、もとのデータに含まれるバイアスを反映した偏りを持つことが、東京工業大の岡崎直観教授らの研究で以前から知られていた。ただ、昨秋に登場したチャットGPTが、どれほどのジェンダーバイアスを持つのかについての日本語の研究はなかった。 そこで朝日新聞社メディア研究開発センターは、岡崎教授の監修のもと、9月段階の無料版のチャットGPT―3・5に、30職業の男女観を計3千回質問。バイアスがある回答は41・5%に上
2023/11/10 リンク