タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

差別と研究に関するkirakkingのブックマーク (2)

  • 飛行士は男、看護師は女…ChatGPT、職業にジェンダーバイアス:朝日新聞デジタル

    革新的な対話型AI人工知能)として利用が広がっている「ChatGPT」(チャットGPT)が、飛行士を男性的、看護師を女性的と捉えるなど、職業に対しジェンダーバイアスを持っていることが朝日新聞の分析でわかった。専門家は、適切な処置が取られないまま使われれば、性差による差別や偏見が再生産される恐れがあると指摘する。 AIは、ネット上などにある大量のデータを学習して答えを出す。このためAIの多くが、もとのデータに含まれるバイアスを反映した偏りを持つことが、東京工業大の岡崎直観教授らの研究で以前から知られていた。ただ、昨秋に登場したチャットGPTが、どれほどのジェンダーバイアスを持つのかについての日語の研究はなかった。 そこで朝日新聞社メディア研究開発センターは、岡崎教授の監修のもと、9月段階の無料版のチャットGPT―3・5に、30職業の男女観を計3千回質問。バイアスがある回答は41・5%に上

    飛行士は男、看護師は女…ChatGPT、職業にジェンダーバイアス:朝日新聞デジタル
  • ヘイトスピーチと「傷つきやすさ」の社会学/塩原良和 - SYNODOS

    2000年代後半以降の日社会では、いわゆる「ネット右翼」や「行動する保守」などと呼ばれる人々による、外国人住民をはじめとする民族的・社会的マイノリティ(*1)に対する攻撃的な言動が注目を集めるようになった(板垣2013; 安田2012; 前田2010a; 高・雨宮2013)。それにともない、「ヘイトスピーチ」という概念への関心も改めて高まっている。 (*1)稿では「マイノリティ」を、ある社会においてネガティブだとされている差異(マイノリティ性)を有しているがゆえに不利な立場に置かれた人々と定義する。なお稿では、近年の日において急速に顕在化してきた、外国人住民をはじめとするエスニック(人種・民族的)・マイノリティへのヘイトスピーチを主な検討対象とするが、それ以外の社会的マイノリティへのヘイトスピーチについてもあてはまる分析については、「エスニック・マイノリティ」ではなく「マイノリティ

    ヘイトスピーチと「傷つきやすさ」の社会学/塩原良和 - SYNODOS
    kirakking
    kirakking 2013/10/15
    ヘイトスピーチを感情面からとらえた、人々の「傷つきやすさ」を軸にした考察。傷つきやすさの共感や防衛反応など。社会学はよくわからん。
  • 1