記事へのコメント61

    • 注目コメント
    • 新着コメント
    ToTheEndOfTime
    ToTheEndOfTime 看護師は他人の世話をする仕事だからではないでしょうか

    2024/03/12 リンク

    その他
    thongirl
    thongirl みんな気にしてないけど昔は「看護婦」って言ってたんだよ。でこれからは「看護師」という言い方をしましょうって「意識の高い」提言がされて、アンチフェミも無意識に「看護師」と発する世の中になったんだよ

    2024/03/12 リンク

    その他
    totoronoki
    totoronoki 100万回やって100万回とも女性なら問題だけど、現実に即した割合ならどうなんだろうな?

    2024/03/12 リンク

    その他
    CocoA
    CocoA 性犯罪被害者の割合は女性が99%以上らしいですが、AIに性犯罪被害者をなにかしら表現すときは”女性ばかり”だと差別になるのですね!、ということ。

    2024/03/12 リンク

    その他
    wdnsdy
    wdnsdy そもそも人間だって「看護師を描け」と一言だけ言われたらとりあえず女性の看護師を描くと思うが

    2024/03/12 リンク

    その他
    urtz
    urtz 正にこの話。スウェーデンでは業種で性別構成比が極端に偏っている https://crossacross.org/ky/gender-gap-index-flaw

    2024/03/12 リンク

    その他
    paradisemaker
    paradisemaker まぁ普通に LLM の仕組み分からん人が知った風の記事書いとるからね

    2024/03/12 リンク

    その他
    kalcan
    kalcan なんで女性の格好をしているだけで女性と判断するんだい?それこそ偏見だよ。男だって女の格好をしてもいいんだよ。

    2024/03/12 リンク

    その他
    Hiro_macchan
    Hiro_macchan もっと男性看護師さんを増やして、男性看護師長さんや男性看護部長さん、男性看護協会理事を増やさないとだめってことでしょうかね。今の看護協会理事って男性の方いらっしゃただろうか?

    2024/03/12 リンク

    その他
    iiko_1115
    iiko_1115 レトロナースの衣装が可愛すぎるからとか言う問題ではなかった

    2024/03/12 リンク

    その他
    poTracy
    poTracy や、現実がそう(犯罪加害者男性80%)だからって「犯罪者」て入力して出力が男性ばかりなのはやっぱあかんやろ・・そこはチューニングするやろ、ってなると思うんでユーザーの不利益か否かで判断されるんじゃね?

    2024/03/12 リンク

    その他
    kotobuki_84
    kotobuki_84 「犯罪者の自室にはマンガアニメゲームポルノがありました」みたいなのも類型よね。それが事実であるという話と、その事実を素朴に拡声したらどういう影響があるかという話と、異なるレイヤーがある。

    2024/03/12 リンク

    その他
    fukken
    fukken AIに給与計算をやらせたら、女性の給料を低めに出すようになった(現実の女性の給料が低いので)、ってのと同じ話。現行のAIは現実から学習するので、現実に存在する偏りや差別をそのまま反映する。

    2024/03/12 リンク

    その他
    antonian
    antonian 「優秀な犬」としか記述していないのにロボット犬になっているのは、生物としての犬は優秀ではないという偏見がAI内で生じている方が気になる。うちのワンコは確かにおバカだが。

    2024/03/12 リンク

    その他
    kari-ko
    kari-ko 労働法をきちんと勉強し始めると、インターネット上にある労務の情報って完全な正解が少ないな!と分かるし、それらを拾い集めて答えを返すAIも言わずもがななんだけど、そのAIは労働法に偏見があるワケじゃないよ。

    2024/03/12 リンク

    その他
    ShimoritaKazuyo
    ShimoritaKazuyo 統計的結果としか言いようがなくない?

    2024/03/12 リンク

    その他
    misshiki
    misshiki “事実として女性の看護師のほうが圧倒的に多いのだから、生成AIが看護師を描写するよう要求されて女性の看護師を描くことは差別でも偏見でもないただの事実であるという結論しか導き出せません。”

    2024/03/12 リンク

    その他
    differential
    differential いつものオッサンが理路をわざと外して何かを嘲笑したいやつ。AIに偏見があるわけではなく社会に偏見があるわけで、AIを主語にして語ってる時点で欺瞞だし、別にポリコレ基準の中でも先進的でもなんでもない

    2024/03/12 リンク

    その他
    otihateten3510
    otihateten3510 新聞は質が高いのかー/人間も看護師書くなら女性にするだろうし、人間が想像するのも女性だけどね?

    2024/03/12 リンク

    その他
    cl-gaku
    cl-gaku 中の人そこまで考えてないと思うよ

    2024/03/12 リンク

    その他
    UhoNiceGuy
    UhoNiceGuy 多くの人に違和感を与えない回答を出すことをAIには求められているので、多数派を強調するのはあると思う。ただ、看護師に女性が多いのは偏見で是正するべき?峠の走り屋に男が多いのと同じだろ

    2024/03/12 リンク

    その他
    pwatermark
    pwatermark たかだか深層学習の出力を「人工知能」とか言い放っちゃうからこんな事になるんだよ やってることはものすげえ大量のデータをものすげえ大量の切り口で取り扱う「統計」でしかねえんだから

    2024/03/12 リンク

    その他
    Rilke
    Rilke 肉体労働に気違い対応にと男性看護師のフィールドは確実にあるからガタイが良くイカつくて気違い速攻でノセられる位ケンカも強い看護師さん増えて欲しいよね。

    2024/03/12 リンク

    その他
    nemuiumen
    nemuiumen そもそも看護師って被差別階級だっけ?看護師の給与自分より高いので全然差別だーとなる意味がわからない。「底辺土方労働者を書け」って言ったらおっさんになりそうだけどそれはいいの?

    2024/03/12 リンク

    その他
    takeishi
    takeishi 看護師100人を作らせた時に女性看護師92人、男性看護師8人で出力してくるのであれば妥当/AIが見てるのは統計じゃなくて学習元データではあるが

    2024/03/12 リンク

    その他
    Shin-Fedor
    Shin-Fedor 兵士やゴミ回収業者や土木作業員を描けと指示したら男性ばかりになりそうで、それが差別なのかというと差別ではあろうと思うが、現実世界に実際ある差別を実直に反映しているだけじゃねえのという感じでもある。

    2024/03/12 リンク

    その他
    longyang
    longyang 同意しかないな。AIには意見など無く過去のテキストが元なのだから「人間の過去にはバイアスがある!」って当たり前の事言われてもな。朝日新聞でファインチューニングしてみたらどうなるかやって見てほしい。

    2024/03/12 リンク

    その他
    ytRino
    ytRino AIの出力の偏りが差別だというの分からなくもないけど、教師データがあって確率的に出してると思うとそれは統計情報をみて女性が多い男性が多いというのと何が違うんだろうとも思う。

    2024/03/12 リンク

    その他
    ata00000
    ata00000 今の生成AIは理解とか判断とかしてるわけじゃなくて確率的振る舞いをしてるという話かね。「統計的差別」みたいな、データ・統計よりも優先する価値観をどう反映させるかって問題だろうか。

    2024/03/12 リンク

    その他
    cyph
    cyph “記憶させた教師データが恣意的”であること自体が問題だって言ってんじゃないの。ベンダは責任あるAIだとか人間中心だとかを掲げてるわけで

    2024/03/12 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    「看護師を描けと言われたら女性として生成するAI」は男女のジェンダー偏見問題があるのか|山本一郎(やまもといちろう)

    一般的には、データが多く出回っているものをAIが学習するので、そのデータがもともと偏見を根拠にして...

    ブックマークしたユーザー

    • mieki2562024/04/25 mieki256
    • hayama12252024/03/15 hayama1225
    • rebeccaobrienE32024/03/13 rebeccaobrienE3
    • ToTheEndOfTime2024/03/12 ToTheEndOfTime
    • napsucks2024/03/12 napsucks
    • shuntastic_saemi2024/03/12 shuntastic_saemi
    • joppincal_nico2024/03/12 joppincal_nico
    • thongirl2024/03/12 thongirl
    • ys00002024/03/12 ys0000
    • enchou6632024/03/12 enchou663
    • totoronoki2024/03/12 totoronoki
    • CocoA2024/03/12 CocoA
    • harumomo20062024/03/12 harumomo2006
    • wdnsdy2024/03/12 wdnsdy
    • urtz2024/03/12 urtz
    • paradisemaker2024/03/12 paradisemaker
    • kalcan2024/03/12 kalcan
    • Hiro_macchan2024/03/12 Hiro_macchan
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事