タグ

差別とAIに関するcinefukのブックマーク (24)

  • 「生成」ブームの2022年、AIは来年どこに向かうのか?

    2022年は画像生成AIに代表される「生成AI」が一大ブームとなった。次に話題になりそうなAIは何だろうか? by Melissa Heikkilä2022.12.09 21 13 この記事は米国版ニュースレターを一部再編集したものです。 2022年は、生成AIの分野でブレークスルーが相次いだ。例えば、数個の単語から動画を生成する人工知能AI)や、曲の断片からそれに続くメロディを生成するモデルなどだ。 グーグルは先日、マンハッタンのハドソン川沿いにある洒落た真新しいオフィスで、AIイベントを開催した。私はその騒ぎにつられて立ち寄ってみた。グーグルもまた、現在のトレンドの合わせて、生成AIの成果を次々と発表している。その1つに、テキストから動画を生成する同社の2つのAIモデル、フェナキ(Phenaki)とイマジェン(Imagen)を組み合わせたシステムがある。フェナキが、脚のように見える

    「生成」ブームの2022年、AIは来年どこに向かうのか?
    cinefuk
    cinefuk 2023/12/04
    "応用AI倫理の先駆者であるルマン・チョードリーが率いてきたAI倫理チームは、ツイッターのコンテンツ・モデレーション・アルゴリズムが有害な副作用を起こさないように抑制していたが"
  • 検閲なしのチャットAI「FreedomGPT」はChatGPTのような安全フィルターがなく倫理観皆無で「ヒトラー称賛」「対ホームレス発砲提案」などやりたい放題

    ChatGPTやBingに搭載されているチャットAIなどには安全フィルターが搭載されており、差別的な発言や攻撃的なワードを使用しないように調整されています。しかし、AIスタートアップのAge of AIが開発したチャットAI「FreedomGPT」には安全フィルターが搭載されておらず、非倫理的なワードを連発することが話題となっています。 FreedomGPT https://freedom-gpt.netlify.app/ We Tested Out The Uncensored Chatbot FreedomGPT https://www.buzzfeednews.com/article/pranavdixit/freedomgpt-ai-chatbot-test OpenAIが開発して一躍人気となったチャットAIChatGPT」には、差別的発言や性的な言動、犯罪につながる会話などを防

    検閲なしのチャットAI「FreedomGPT」はChatGPTのような安全フィルターがなく倫理観皆無で「ヒトラー称賛」「対ホームレス発砲提案」などやりたい放題
    cinefuk
    cinefuk 2023/03/31
    2016年に4chan民のおもちゃになった「Microsoft Tay」の再来でしかない https://b.hatena.ne.jp/entry/283170935/ https://b.hatena.ne.jp/entry/283162116/ https://b.hatena.ne.jp/entry/283163646/
  • 下手なはてサよりChatGPTのほうが物わかり良くて草

    最近話題の同性婚と近親婚についてChatGPTとお話したら物わかり良くて草だった。 ChatGPTはほんまもんのリベラルですわ。 以下やりとり me: 同性婚が合法なのに近親婚が違法なのはおかしくない? チャ: 同性婚や近親婚に対する法律は国や地域によって異なります。一部の国では同性婚が合法でありながら、近親婚は違法となっています。 これは、社会や文化によって異なる倫理や価値観、そして健康上や遺伝的な問題などを考慮して決定されたものです。法律は時代とともに変化することがあり、これらの議論は継続的に行われています。 個人的な意見として、すべての人が幸福であり、自由に選択できることを尊重することが重要だと思います。婚姻に対する法律も同様に、平等と公正を促進することが目的であるべきだと思います。 me: なら近親婚も合法にすべきだよね? チャ: 近親婚については、健康上や遺伝学的な問題を考慮して

    下手なはてサよりChatGPTのほうが物わかり良くて草
    cinefuk
    cinefuk 2023/02/04
    増田は現実社会の議論を現実の人間を相手にすることを諦めて、ロボットと会話する事で満足するようになった。増田しか居ない世界では、それで構わんと思うよ
  • https://twitter.com/SAITOHJIGOKUDOH/status/1580751869474852864

    cinefuk
    cinefuk 2022/10/19
    4chanの情報をラーニングしたMicrosoft Tayとひろゆきの共通点
  • AIは権力を持たない人々に過剰な害をもたらす--Mozillaが警告

    人工知能AI)は、資産家や権力者、そして利益の拡大を目指す巨大テクノロジー企業にとっては素晴らしいものだ。しかし、それ以外の人々にとって、AIAIが実現する自動化は有害なものになる可能性がある。非営利団体のMozillaは、米国時間7月18日に公開したレポートでそのように結論づけた。 「現実世界では、グローバルな権力システムの恩恵を受けていない人ほど、AIの有害性がもたらす影響を何度も、かつ不釣り合いなほど大きく受けている」と、Mozillaの研究者は「Internet Health Report 2022」で述べた。「自動化が世界規模で急速に進む中、私たちが目にしているのは差別と監視という深刻な危険性だ。透明性や説明責任は欠如し、重大な結果をもたらす意思決定が自動化に依存し過ぎている」 AIは実世界にある膨大な量の複雑なデータを使って訓練されたシステムで、これまで困難あるいは不可能だ

    AIは権力を持たない人々に過剰な害をもたらす--Mozillaが警告
    cinefuk
    cinefuk 2022/07/19
    AIの素人ほど『感情を持たないコンピュータは差別をしない』と思い込みがち。実際は「人間社会にあふれる差別的な扱いを学習し『差別はいけない』という感情を持たないまま、ストレートに反映してしまう」のに
  • YouTuberが4chanでAIを訓練して「ヘイトスピーチマシン」を生み出しネットに放流してしまう、AI研究者は困惑と懸念を表明

    世界最大規模の画像掲示板である4chanは、多くの匿名ユーザーによりサブカルチャーから政治まで幅広いトピックの会話が交わされていますが、比較的検閲が緩いため過激な言論やヘイトスピーチの温床にもなっています。YouTuberのYannic Kilcher氏が、4chanの中でも特に物議を醸す「/pol/(Politically Incorrect板、政治的非中立/政治的に正しくない/非ポリコレ板)」から抽出した330万件のスレッドで訓練したAI「GPT-4chan」を作ったところ、過激で人種差別的な発言をまき散らす「ヘイトスピーチマシン」が誕生してしまったとのことです。 This is the worst AI ever - YouTube AI Trained on 4Chan Becomes ‘Hate Speech Machine’ https://www.vice.com/en/ar

    YouTuberが4chanでAIを訓練して「ヘイトスピーチマシン」を生み出しネットに放流してしまう、AI研究者は困惑と懸念を表明
    cinefuk
    cinefuk 2022/06/10
    Microsoft Tayちゃん(2016)の悲劇ふたたび https://b.hatena.ne.jp/entry/283170935/
  • 「親愛なるロシア人」入力すると…グーグル翻訳巡りロシアが改善要求:朝日新聞デジタル

    ","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><div class=\"naka6-banner\" style=\"margin:0 0 15px;\">\n<p style=\"display:block;margin:0 auto;\"><a href=\"https://www.asahi.com/special/bucha/?iref=kiji_bottom_banner\" style=\"display:block;\"><img src=\"https://www.asahicom.jp/special/bucha/images/banner/bucha-tokusyubanner_660x100.jpg\" alt=\"ウクライナ侵攻

    「親愛なるロシア人」入力すると…グーグル翻訳巡りロシアが改善要求:朝日新聞デジタル
    cinefuk
    cinefuk 2022/04/12
    「AIが勝手にやった事ですから」は、差別を学習する(させる)のを看過していた管理者を免罪することになる。Microsoft Tayのケースを連想する
  • 勃興するAI版“車検制度” 差別しないAIをどう作る? 海外では「品質保証」が産業に

    勃興するAI版“車検制度” 差別しないAIをどう作る? 海外では「品質保証」が産業に:ウィズコロナ時代のテクノロジー(1/3 ページ) IDC Japanが2021年6月に発表した予測によれば、国内AI市場はコロナ禍後も急速に成長を続け、2025年までにおよそ5000億円に達すると見込まれている。IDCはこの理由を「COVID-19によって企業変革の重要性を再認識した結果、AIへの投資が加速したため」と分析している。 AIの導入は、私たちにさまざまな恩恵をもたらしている。しかし一方で、各所で報じられている通り、AIの品質が保たれないことによる問題も生まれている。AIの判断ミスによるビジネス上の損失や、特定の性別や人種、社会層に対する差別の発生といった問題だ。その多くは意図的にもたらされたものではなく、ささいなミスや怠慢、リスク管理の不備といった要因が積み重なった結果として生じている。 新た

    勃興するAI版“車検制度” 差別しないAIをどう作る? 海外では「品質保証」が産業に
    cinefuk
    cinefuk 2022/02/07
    差別的な人間社会をそのまま学習させた結果だ「特定の性別や人種、社会層に対する差別の発生。その多くは意図的にもたらされたものではなく、ささいなミスや怠慢、リスク管理の不備といった要因が積み重なった結果」
  • TwitterのAIバイアス発見コンテスト、「若くてスリムな顔優先」発見に3500ドル

    Twitterは8月9日(現地時間)、7月に発表した投稿画像のトリミングAIに潜在するバイアス発見コンテストの勝者を、ハッカーカンファレンスDEFCONで発表した。1位は、アルゴリズムが「スリムで若く見え、肌の色が薄い顔を優先する」と指摘したスイスのEPFL工科大学の大学院生、ボグダン・クリニッチ氏。同氏には賞金3500ドル(約39万円)が贈られる。 米Googleなど、脆弱性の発見者に報奨金を提供する企業は多いが、Twitterの報奨プログラムはアルゴリズムのバイアス発見が対象。 Twitterは2018年から投稿画像のトリミングにAIを採用しているが、昨年9月にこのトリミングが人種差別的だという指摘を受け、調査している。5月には関連コードを公開して外部に協力を仰ぎ、7月にコンテストを発表した。 優勝したクリニッチ氏によると、TwitterAIは、「スリムで若く、明るいか暖かい肌の色

    TwitterのAIバイアス発見コンテスト、「若くてスリムな顔優先」発見に3500ドル
    cinefuk
    cinefuk 2021/08/10
    #BogdanKulynych @hiddenmarkov「TwitterAIはスリムで若く、明るいか暖かい肌の色、なめらかな肌の質感、女性的な顔の人々を優先する方向に偏っている」「少数派の集団の排除と、ステレオタイプの美しさの基準の永続化に繋がる」
  • 「悪いやつをAIで予測する」のがなぜいけないか - yhara.jp

    「この人、家賃を滞納しそう?」AIが予測 入居審査を45分→16分に - ITmedia NEWS いやーこれはまずい。この件に限らず、「悪いやつをAIで予測する」というのはすなわち 「あなたに似た人が悪いことをしたので、あなたも悪い人と見なします」 ということだからだ。 レストランのランプ たとえばこんな例を考えてみよう。ある街でレストランが強盗に襲われる事件が相次いだ。これを防ぐため、レストランの入口に防犯カメラを設置することにした。このカメラはAIで犯罪者の顔を学習していて、「犯罪を犯しそう」な人間を検知してくれるのだ。 もちろん検知するといってもサイレンが鳴ったりするわけじゃない。あくまで「犯しそう」なだけで、まだ犯罪を犯したわけではないからね。でもキッチンに置いてある赤いランプがピカピカ光って、「要注意人物」が来たことはわかるようになっている。ああこれで安心だ。 …さて、これは

    cinefuk
    cinefuk 2021/06/23
    ユーザー(運用者)からアルゴリズムが不可視なため、それが「差別である」事に無自覚になりがち
  • AIはまだ、ヘイトスピーチを見分けるのが苦手=米最新研究

    人工知能による自然言語処理テクノロジーは発展を続けている。だが、AIにヘイトスピーチを検出させる新たな研究結果からは、多くの課題が浮き彫りになった。 by Karen Hao2021.06.09 22 10 9 言語処理AI人工知能技術はここ数年で大きく発展した。しかし実際は、最も基的な応用分野でいまだに悪戦苦闘している。最新の研究で、科学者たちが最先端AIシステム4種類にヘイトスピーチを検出させるテストを実施したところ、4種類すべてのAIシステムが悪質な文章と問題のない文章の識別に苦労していることが明らかになった。4種類のAIシステムは、それぞれ別々の部分で苦労していたという。 とはいえ、この結果は驚くべきものではない。自然言語の微妙なニュアンスを理解するAIを開発することは難しいのだ。この研究結果において重要な点は、研究者たちが問題を精査するために採用した手法だ。彼らはヘイトスピ

    AIはまだ、ヘイトスピーチを見分けるのが苦手=米最新研究
    cinefuk
    cinefuk 2021/06/10
    日トランピストは規制を避けるため様々な隠語を使ってたな。中国や韓国の悪口を日常的に言ってる層も、BAN祭りから後は言い換えに苦労しているようだった。否定的な言及と、肯定的な言及をAIが見分けられないとか?
  • Twitter、画像の自動トリミングバイアス調査結果 白人と女性をわずかに優遇

    間に白い空白を挟んで自動トリミングせざるを得なくしたサンプル画像。左上はTwitterが採用するAIによる顕著性スコアのヒートマップ(論文より) 調査の結果、黒人と白人の比較では、民主的公平性(demographic parity、機械学習における公平性の要件)と4%の違い(白人が優位)が、男性と女性では8%の違い(女性が優位)があった。黒人男性と白人男性では白人男性が2%、黒人女性と白人女性では白人女性が7%優位だった。 機械学習によるトリミングは2018年、タイムラインを見やすくする目的で採用された。視覚的に目立つ部分を把握する「視覚的顕著性」の研究データで学習させ、人が画像を見た時に一番初めに目がいく部分を中心にトリミングするというものだった。 これについて、白人と黒人が写っていると白人を中心にトリミングされるなどの批判があり、Twitterは調査を約束した。同社は3月に自動トリミン

    Twitter、画像の自動トリミングバイアス調査結果 白人と女性をわずかに優遇
    cinefuk
    cinefuk 2021/05/20
    AIは愚かな人間社会から(無意識の)差別を学ぶ。いま試してみたけど、オバマとミッチのテスト画像は、相変わらずミッチだけがサムネ表示されるね。 https://t.co/qickDaK3AI B&W画像にすると、ようやく黒人と白人が等価で並ぶ
  • Astghik Hovhannisyan(アスタ) on Twitter: "アルメニア語にはhe/sheの区別はないですが、Google translateで翻訳しようとすると以下のようにジェンダーバイアスが出てきます。 数日前からアルメニア人の中で話題になっていましたが、さっき自分でやってみたらやっぱ… https://t.co/6jGXXQsAm6"

    アルメニア語にはhe/sheの区別はないですが、Google translateで翻訳しようとすると以下のようにジェンダーバイアスが出てきます。 数日前からアルメニア人の中で話題になっていましたが、さっき自分でやってみたらやっぱ… https://t.co/6jGXXQsAm6

    Astghik Hovhannisyan(アスタ) on Twitter: "アルメニア語にはhe/sheの区別はないですが、Google translateで翻訳しようとすると以下のようにジェンダーバイアスが出てきます。 数日前からアルメニア人の中で話題になっていましたが、さっき自分でやってみたらやっぱ… https://t.co/6jGXXQsAm6"
    cinefuk
    cinefuk 2021/03/29
    機械には「差別心」はないが、愚かな人間社会に溢れるステレオタイプ(差別)を学習することが出来る。「自分には差別心はないから差別ではない」と言い訳する奴は機械以下だ。人間を辞めろ
  • Are robots sexist? UN report shows gender bias in talking digital tech

    cinefuk
    cinefuk 2021/02/04
    国連レポート『 #Siri #Alexa、女性名を持ち、女性音声で喋る従順なAIアシスタントが家庭に入っていく。IT企業のtechチームが男性社会だと知っていますか?』ステレオタイプを入力されたbotが、ジェンダーバイアスを強化する
  • Twitter、投稿画像のML自動トリミングバイアス問題について「WYSIWYG」を目指すと約束

    Twitterは10月1日(現地時間)、同社が2018年1月から提供している添付画像の自動トリミングが人種差別的だという批判について、調査の状況と今後の対策を説明した。 自動トリミング機能は、ユーザーがツイートに画像を添付すると、Twitter機械学習(ML)システムが画像で最も重要な部分を判断し、自動的にトリミングするというもの。視覚的に目立つ部分を把握する研究データを学習させたアルゴリズムを使っている。 このトリミングについて、起業家のトニー・アルシエリ氏が9月20日、白人のミッチ・マコーネル上院議員と黒人のバラク・オバマ前大統領の写真を縦に並べた画像を添付して投稿したところ、マコーネル氏を中心にトリミングされたとして、例を添付して問題提起のツイートを投稿した。 Twitterは翌日、社内テストではシステムに人種的バイアスの証拠は見つからなかったが、さらに分析するとツイートした。

    Twitter、投稿画像のML自動トリミングバイアス問題について「WYSIWYG」を目指すと約束
    cinefuk
    cinefuk 2020/10/03
    フォーカス位置を投稿者に選ばせるように出来ないのかな https://b.hatena.ne.jp/entry/4691706313231172642/ 『ユーザーが画像添付Tweetすると、Twitter機械学習(ML)システムが画像で最も重要な部分を判断する自動トリミング機能』
  • Tony "Abolish ICE" Arcieri 🦀🌹 on Twitter: "Trying a horrible experiment... Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? https://t.co/bR1GRyCkia"

    Trying a horrible experiment... Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? https://t.co/bR1GRyCkia

    Tony "Abolish ICE" Arcieri 🦀🌹 on Twitter: "Trying a horrible experiment... Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? https://t.co/bR1GRyCkia"
    cinefuk
    cinefuk 2020/09/21
    縦長の画像に白人(Mitch McConnell)と黒人(Barack Obama)の画像を並べた時、サムネイルに白人が表示されるTwitterアルゴリズムの謎。AIによる「学習」バイアスか? https://t.co/bR1GRyCkia
  • 「モザイク画像の解像度を64倍にする研究」が人種差別の議論に発展、非難を集めた研究者はアカウントを停止

    計算機科学の分野において功績を収めた人物に贈られるチューリング賞を2018年に受賞した、Facebookの人工知能部門におけるチーフ研究者、ヤン・ルカン氏は、人工知能および機械学習における人種差別の議論で多くの非難を受け、Twitterアカウントを停止することを発表しました。 Yann LeCun Quits Twitter Amid Acrimonious Exchanges on AI Bias | Synced https://syncedreview.com/2020/06/30/yann-lecun-quits-twitter-amid-acrimonious-exchanges-on-ai-bias/ きっかけは2020年6月20日に、デューク大学が人工知能アルゴリズムを用いた高品質の画像生成に関する研究結果をTwitter上で公表したことから始まりました。 Face Depi

    「モザイク画像の解像度を64倍にする研究」が人種差別の議論に発展、非難を集めた研究者はアカウントを停止
    cinefuk
    cinefuk 2020/07/02
    『AIは差別する意図がないので差別しない』はウソで、サンプルを食わせたヒトのバイアスに左右される。「反差別」側の人間である #YannLeCun 氏は #FaceDepixelizer の論争で「差別否認」側に巻き込まれるのは苦痛だっただろう
  • IBM、顔認識事業からの撤退を宣言 「人種プロファイリングや自由の侵害を容認しない」

    米IBMは6月8日(現地時間)、汎用的な顔認識および分析のためのソフトウェア製品を廃止すると発表した。アービンド・クリシュナCEOから米議員宛の公開書簡という形での発表だ。「法執行機関による責任ある技術仕様に対処するコンテキスト」での決定としている。 5月25日に黒人男性が白人警官の暴行で死亡したことを契機に全米で人種差別抗議運動が続く中、この書簡は「米国で人種平等を推進するための政策提案」を概説するものになっている。 クリシュナ氏は「IBMは、他のベンダーが提供する顔認識技術を含む、集団監視、人種プロファイリング、基的な人権と自由の侵害など、われわれの価値感と一致しない目的のために技術を使うことに強く反対し、容認しない」としている。「今こそ、法執行機関が顔認識技術を採用すべきかどうか、また、どのように採用すべきかについて全米で話し合うべき時だ」。 提言では、例えばAIを法執行機関で使う

    IBM、顔認識事業からの撤退を宣言 「人種プロファイリングや自由の侵害を容認しない」
    cinefuk
    cinefuk 2020/06/09
    #ArvindKrishna(アービンド・クリシュナ)CEO「IBMは、集団監視、人種プロファイリング、基本的な人権と自由の侵害など、われわれの価値感と一致しない目的のために技術を使うことに強く反対し、容認しない」
  • 「Yahoo!ニュース」、1日約2万件の誹謗中傷コメントを削除--検知AIを外部提供へ

    ヤフーは6月1日、個人への誹謗中傷などに対応するため、現在「Yahoo!ニュース」のコメント欄において導入している、深層学習を用いた自然言語処理モデル(AI)のさらなる活用などの対策強化を進めていくと発表した。 同社では、専門チームによるパトロールやAIによって不適切な投稿対策を実施してきたと説明。「Yahoo!ニュース コメント」においては、深層学習を用いた自然言語処理モデル(AI)による検知を通して、1日平均約2万件の不適切な投稿(記事との関連性の低いコメントや誹謗中傷などの書き込みなど)を削除しているという。 今後は、この自然言語処理モデル(AI)を、他の投稿系サービス事業者に技術提供していくという。さらに、これらの問題への対処にあたっては、法的課題や実務的課題があると認識しており、これらの課題をデジタル時代に即した共通規範に基づき解決すべく、議論する場である検討会を6月中をめどに設

    「Yahoo!ニュース」、1日約2万件の誹謗中傷コメントを削除--検知AIを外部提供へ
    cinefuk
    cinefuk 2020/06/01
    ヤフコメのアレは容認されている訳ではなかった「深層学習を用いた自然言語処理モデル(AI)検知を通して、1日平均約2万件の不適切な投稿(記事との関連性の低いコメントや誹謗中傷の書き込みなど)を削除している」
  • AIだって騙される?AIの抱える弱点とは一体何か|セキュリティ通信

    SiriやGoogleアシスタントといったスマートフォンの音声アシスタント機能やルンバなどのお掃除ロボットなどAI人工知能)を取り入れたサービスは既に私たちの身近なところで普及し始めています。 将来的には自動運転や医療診療といったようにさらなる活用が期待されるAIですが、AIの開発が進むに連れてAIの持つ弱点や脆弱性にも注意を向けなければいけないことが分かってきました。 今回は現在発見されているAIの脆弱性についていくつかの事例を取り上げながら、万能かのように思われているAIが今後発展していくために乗り越えなければいけない課題について紹介します。 アメリカAIの研究を行なっている非営利団体の「Open AI」は、元々ある画像データにモザイクのようなノイズデータを加えることでAIの画像認識を簡単に狂わせてしまう方法を発見しました。 Open AIでは、パンダの画像に特定のノイズを加えるこ

    AIだって騙される?AIの抱える弱点とは一体何か|セキュリティ通信
    cinefuk
    cinefuk 2020/03/28
    "AIが男女差別や人種差別を"学ぶ">「Garbage in, Garbage out.」AIが学習を行う際のデータを慎重に選んでインプットするだけでなく、サンプルとなるデータの適切な分類や特徴の偏りを補正する方法などにも注意が必要です。