並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 48件

新着順 人気順

説明可能性の検索結果1 - 40 件 / 48件

説明可能性に関するエントリは48件あります。 機械学習AIHotEntry などが関連タグです。 人気エントリには 『機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ』などがあります。
  • 機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ

    ちょっと前に、しょうもないことを某所で放言したら思いの外拡散されてしまいました。 機械学習の説明可能性(解釈性)、大半のケースで求められているのは厳密な分類・回帰根拠ではなく受け手の「納得感」なので、特に実ビジネス上は説明可能性に長けたモデルを開発するより、納得できないお客さんを巧みに関係性構築した上で口八丁で完璧に説得できる凄腕営業ピープルを雇う方が重要— TJO (@TJO_datasci) 2019年11月23日 これ自体は与太話なので実際どうでも良い*1のですが、最近色々な研究や技術開発の進展はたまた実務家による考察などを見ていて、「機械学習の説明可能性(解釈性)というのは思った以上に複雑な迷宮だ」と感じることがままあったのでした。 ということで、今回の記事では僕のサーベイの範囲でザッと見て目についた資料などを超絶大雑把にリストアップした上で、主に実務における説明可能性とは何かとい

      機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ
    • 機械学習モデルの判断根拠の説明(Ver.2)

      【第40回AIセミナー】 「説明できるAI 〜AIはブラックボックスなのか?〜」 https://www.airc.aist.go.jp/seminar_detail/seminar_040.html 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演ではこれら近年の代表的な説明法について紹介する。

        機械学習モデルの判断根拠の説明(Ver.2)
      • 人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+

        【特集】「『予測』という名の欲望」全記事はこちらから読めます ■人間にはAIの考えが分からない? ――ディープラーニングは、大量の「教師データ」を読み込み、入力する変数と、出力する変数との間の関係を見つけ出します。その関係が分かれば、新たなデータを入力したとき、出力が予測できるというわけですが、なぜ人間はそのプロセスを理解できないのでしょうか? おもにふたつの要因があります。質的なものと、量的なものです。量的な問題は、すごくシンプルです。ディープラーニングの内部で動くパラメータ(母数:システムの内部で動く情報)が多すぎるので、その大量・複雑なデータを人間の直感につなげることが難しい、という話です。最近は、多いものでは1億個を超えるパラメータから出力を予測します。じゃあ、その1億個をざっと人間が見てなにか分かるのかといえば、分からない。これが基本的に起こることです。 ――大量の変数という意味

          人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+
        • Interpretable Machine Learning

          Interpretable Machine Learning A Guide for Making Black Box Models Explainable. Christoph Molnar 2021-05-31 要約 機械学習は、製品や処理、研究を改善するための大きな可能性を秘めています。 しかし、コンピュータは通常、予測の説明をしません。これが機械学習を採用する障壁となっています。 本書は、機械学習モデルや、その判断を解釈可能なものにすることについて書かれています。 解釈可能性とは何かを説明した後、決定木、決定規則、線形回帰などの単純で解釈可能なモデルについて学びます。 その後の章では、特徴量の重要度 (feature importance)やALE(accumulated local effects)や、個々の予測を説明するLIMEやシャープレイ値のようなモデルに非依存な手法(mo

          • 10万件以上の物件データを学習したのにクソ失礼にも家賃69万の物件に対して28万だと査定した機械学習モデルは何を考えているのか。 - Qiita

            10万件以上の物件データを学習したのにクソ失礼にも家賃69万の物件に対して28万だと査定した機械学習モデルは何を考えているのか。Python機械学習lightgbmSHAP こちらの記事をご覧いただきありがとうございます。 ちゃんと内容が伝わるようなタイトルを考えたらラノベみたいになってしまい、かえってわかりにくい気がしてきました。 以前からいくらかSUUMO物件について機械学習を用いたデータ分析を行っています。 今回は、10万件以上の物件データを与えてなかなか高精度な家賃予測が可能となった機械学習モデルが、クソ失礼にも家賃が安いと査定した高額物件がいくらかあったので、何を考えてクソ失礼な査定となったのかを調べます。 もしかしたらボッタくりかもわかりませんからね。楽しみですね。 モデルの学習について 基本的には前回記事と同じです。 使用した機械学習モデル 以前から引き続き LightGBM

              10万件以上の物件データを学習したのにクソ失礼にも家賃69万の物件に対して28万だと査定した機械学習モデルは何を考えているのか。 - Qiita
            • 意思決定の理由の可視化が可能なグラフ構造の学習アルゴリズムの紹介 - ZOZO TECH BLOG

              ZOZO研究所の清水です。弊社の社会人ドクター制度を活用しながら、「社内外に蓄積されているデータからビジネスへの活用が可能な知見を獲得するための技術」の研究開発に取り組んでいます。 弊社の社会人ドクター制度に関しては、以下の記事をご覧ください。 technote.zozo.com 私が現在取り組んでいるテーマの1つに、「機械学習が導き出した意思決定の理由の可視化」があります。この分野は「Explainable Artificial Intelligence(XAI)」と呼ばれ、近年注目を集めています。 図.XAIに関連する文献数の推移(引用:https://arxiv.org/abs/1910.10045) その中でも今回はユーザに対するアイテムの推薦問題に焦点を当て、「なぜこのユーザに対して、このアイテムが推薦されたのか?」という推薦理由の可視化が可能なモデルを紹介します。 本記事の概要

                意思決定の理由の可視化が可能なグラフ構造の学習アルゴリズムの紹介 - ZOZO TECH BLOG
              • 2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」

                オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models

                  2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」
                • 機械学習における解釈性について | メルカリエンジニアリング

                  こんにちは。Merpay Advent Calendar 2019 の24日目は、メルペイ Machine Learning チームの @yuhi が機械学習における解釈性についてお送りします。 目次 機械学習における解釈性とは なぜ解釈性が必要なのか 1. サービスを提供する事業者としての説明責任 2. 推論結果に対する社内外の関係者の理解 3. モデルのデバッグ、精度改善 どのようなアプローチがあるのか SHAPについて サマリ 基本的なアイディア 問題設定 説明可能モデルに対して満たしてほしい性質 説明可能モデルを求める SHAPの実装について 最後に References 機械学習における解釈性とは 深層学習をはじめとする機械学習分野の発展に伴って、これまでにないユニークなサービスが開発され、また多くの業界において業務が効率化、高度化されつつあります。メルペイでも機械学習を用いて、

                    機械学習における解釈性について | メルカリエンジニアリング
                  • 【記事更新】私のブックマーク「説明可能AI」(Explainable AI) – 人工知能学会 (The Japanese Society for Artificial Intelligence)

                    説明可能AI(Explainable AI) 原 聡(大阪大学産業科学研究所) はじめに 2018年に本誌5 月号(Vol. 33, No. 3, pp. 366-369)の”私のブックマーク”に「機械学習における解釈性」という記事を書いた。前記事の執筆から1年が経ち、機械学習モデルの解釈・説明技術を取り巻く社会的な情勢の変化や新たな研究の発展など、数多くの進展があった。本記事はこれら近年の変化・進展についてまとめた、上記の”私のブックマーク”の続編である。本記事を読む前に、まずは上記の前記事をご一読いただきたい。 用語について 本記事では、機械学習モデルの出力に加えて、その出力を補助する追加の情報(モデルの解釈、判断根拠の説明、など)を出力する技術一般および研究分野全体を指す用語としてXAI(Explainable AI, 説明可能AI)を用いる。XAIはアメリカの国防高等研究計画局(D

                    • 協力ゲーム理論のシャープレイ値に基づき機械学習モデルの予測を解釈するKernel SHAPの理論と実装のまとめ - Fire Engine

                      機械学習の幅広い分野への応用が進むにつれ,機械学習がその予測の根拠などを理解できない「ブラックボックス」となることが問題視されており,機械学習の解釈性や説明性が注目されています.今回のテーマであるSHAP(SHapley Additive exPlanations)は,機械学習モデルへの特定の入力に対する予測の根拠を提示する代表的な手法の一つです.SHAPには用途に応じていくつかのアルゴリズムがありますが,その中でも今回はあらゆる機械学習モデルに適用可能(Model-Agnostic)なKernel SHAPという手法についてまとめました. 構成としては,まずKernel SHAPとは何かについての概要を述べた後に, Kernel SHAPを理解する上で必要な要素である「シャープレイ値」と「SHAP」について説明します.さいごに,Kernel SHAPについて「理論」と「実装」に分けて書い

                        協力ゲーム理論のシャープレイ値に基づき機械学習モデルの予測を解釈するKernel SHAPの理論と実装のまとめ - Fire Engine
                      • Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog

                        長期インターン生の木村です。 今回、以前から興味を持っていた画像認識モデルにおける説明可能なAIのクラス活性化マッピング手法を調査してみました。 説明可能なAIとは 近年、深層学習ベースの画像認識モデルは製造業、医療、自動運転など至る場面で社会実装が進められていますが、ディープなラーニングを行っているだけに推論の判断根拠を人間が解釈できない問題があります。医療、自動運転のような命に関わる領域では安全性や公平性を担保できないために安心して導入できません。 このような問題を解決するのが「説明可能なAI(XAI)」です。 「説明可能なAI(XAI)」は、AIの推論結果を人間が解釈可能な形で出力する技術を指します。例えば、犬と猫が映っている画像を画像分類するAIが犬と推論した場合、モデルがどこを判断根拠としているかをヒートマップで可視化します。このヒートマップは、「顕著性マップ」と呼ばれます。 画

                          Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog
                        • Google、機械学習モデルにおける意思決定の解釈に役立つ「BigQuery Explainable AI」を一般提供

                          CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

                            Google、機械学習モデルにおける意思決定の解釈に役立つ「BigQuery Explainable AI」を一般提供
                          • 富士通研究所と北海道大学、望む結果までの手順を導くことができる「説明可能なAI」を開発

                              富士通研究所と北海道大学、望む結果までの手順を導くことができる「説明可能なAI」を開発
                            • 機械学習モデルの説明性・解釈性について -SHAPによる実践あり-|はやぶさの技術ノート

                              機械学習とタスクについて 回帰や分類などのタスクに機械学習モデルを活用することがあります。 例えば、以下の記事ではフクロウの種類を分類するために深層学習モデルを活用しています。 PyTorch Lightning入門から実践まで -自前データセットで学習し画像分類モデルを生成-ディープラーニングフレームワークPytorchの軽量ラッパー”pytorch-lightning”の入門から実践までのチュートリアル記事を書きました。自前データセットを学習して画像分類モデルを生成し、そのモデルを使って推論するところまでソースコード付で解説しています。...

                                機械学習モデルの説明性・解釈性について -SHAPによる実践あり-|はやぶさの技術ノート
                              • 説明可能なAIとは | Googleの「Explainable AI」に触れながら解説 | Ledge.ai

                                AIが注目されている理由のひとつであるディープラーニングには、モデルがブラックボックスになるという問題がある。そこで、医療業界や金融業界を筆頭に、「説明可能なAI」への注目が集まっている。今回は、そもそも説明可能なAIとは何か?という部分から、最近Googleが発表した説明可能なAIを実現するためのツールの長短まで、株式会社HACARUSのデータサイエンティストである宇佐見一平氏に解説してもらった。 こんにちは、HACARUSデータサイエンティストの宇佐見です。 「説明可能なAI」という言葉はご存知でしょうか。 説明可能なAIとは、米国のDARPAの研究が発端の概念で、モデルの予測が人間に理解可能であり、十分信頼に足る技術、またはそれに関する研究のことを指します。 たとえば医療業界のように、診断の理由を患者さんに説明しなけらばならない場合には、説明可能で解釈性の高いモデルが必要です。このよ

                                  説明可能なAIとは | Googleの「Explainable AI」に触れながら解説 | Ledge.ai
                                • 講演資料「機械学習における説明可能性・公平性・安全性への工学的取り組み」2019年度 人工知能学会全国大会(第33回) 企画セッション

                                  開催趣旨 機械学習技術が様々なシステムに組み込まれて、社会に広がっています。それにつれて、高い精度が得られる一方、説明可能性(ブラックボックス問題)、公平性(差別・偏見問題)、安全性(品質保証・動作保証問題)の課題も指摘されるようになってきました。本企画セッションは、これらの課題に対する取り組みの動向を解説し、これからの方向性・対策を議論します。 日時 2019年6月5日(水) 9:00~10:40 会場 朱鷺メッセ 新潟コンベンションセンター[N会場] 新潟県新潟市中央区万代島6番1号(新潟駅から路線バス約15分、徒歩約20分) https://www.tokimesse.com/ プログラム 講演1

                                    講演資料「機械学習における説明可能性・公平性・安全性への工学的取り組み」2019年度 人工知能学会全国大会(第33回) 企画セッション
                                  • SHAPを用いて機械学習モデルを説明する l DataRobot

                                    プラットフォームの概要 DataRobot AI Platform について確認する 唯一、完全にオープンなエンドツーエンドの AI ライフサイクルプラットフォーム。エコシステムの緊密な統合と、応用 AI の専門知識をご利用いただけます ドキュメント 新機能 ログイン 無料で始める AI 構築 AI 用データの準備 データを接続し、データの品質を評価し、新たな特徴量を設計し、特徴量ストアと統合しましょう 構築と最適化 構造化および非構造化データを使用し、多数のモデリング戦略を同時にトレーニングしましょう。 インサイト モデルのパフォーマンスを評価し、重要な要素を特定し、意思決定を推進するためのカスタマイズ可能なアプリを作成します。 AI 運用 検証とガバナンス すべてのモデル、試験、承認のための一元化された記録システムを作成し、コンプライアンスのための文書作成を自動化します。 AI のデプ

                                      SHAPを用いて機械学習モデルを説明する l DataRobot
                                    • 説明可能なAIに関する書籍の和訳プロジェクト完了のお知らせ - HACARUS INC.

                                      こんにちは、HACARUSでデータサイエンティストをしている増井です。先日、Christoph Molnar氏の Interpretable Machine Learning というAIの解釈性に関するの教科書の和訳プロジェクトを進めていることをこちらのブログにて紹介させていただきました。 11月ごろから和訳活動を始めていたのですが、遂に全ての和訳の公開が完了しましたのでお知らせします。 この書籍は、CC BY-NC-SA 4.0 のライセンスで提供されており、原著、和訳ともに web上で全編無料で読むことができます。和訳版は以下の URL からご覧になれます。 https://hacarus.github.io/interpretable-ml-book-ja/ ちなみに、Google 検索で、”Interpretable ML 和訳” と調べていただいても、上位に表示されると思います。

                                        説明可能なAIに関する書籍の和訳プロジェクト完了のお知らせ - HACARUS INC.
                                      • Accumulated Local Effects(ALE)で機械学習モデルを解釈する / TokyoR95

                                        2021年10月30日に行われた、第95回R勉強会@東京(#TokyoR)での発表資料です。 https://tokyor.connpass.com/event/225967/ コードはこちらになります。 https://github.com/dropout009/tokyor95

                                          Accumulated Local Effects(ALE)で機械学習モデルを解釈する / TokyoR95
                                        • アングル:「理由を説明するAI」実用化、ビジネス激変の可能性

                                          4月6日、米マイクロソフト傘下のビジネス向け交流サイト(SNS)「リンクトイン」は、ある人工知能(AI)ソフトウエアを昨年7月に営業チームに導入して以来、登録料収入が8%増えた。写真はイメージ。2013年6月撮影(2022年 ロイター/Kacper Pempel) [オークランド(米カリフォルニア州) 6日 ロイター] - 米マイクロソフト傘下のビジネス向け交流サイト(SNS)「リンクトイン」は、ある人工知能(AI)ソフトウエアを昨年7月に営業チームに導入して以来、登録料収入が8%増えた。 このAIは、例えば登録を解約しそうな顧客を予想するだけでなく、その結論に至った理由まで説明してくれる。AIが結論を導き出すプロセスを明らかにすることで、新たなビジネスチャンスを生み出す画期的なソフトだ。 AI科学者らにとって、ビジネスのあらゆる結果を正確に予測するシステムを設計するのは、わけもないことだ

                                            アングル:「理由を説明するAI」実用化、ビジネス激変の可能性
                                          • 富士通研と北海道大が「説明可能なAI」を共同開発--AIの信頼性/透明性を向上

                                            印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 富士通研究所と北海道大学は、人工知能(AI)が自動判断した結果をもとに、望む結果を得るために必要な手順を自動で提示できる技術を世界で初めて開発した。 今回、共同開発したAI技術を用いて、糖尿病、ローンの与信審査、ワインの評価の3種類のデータセットで検証したところ、今回の開発技術が全てのデータセットと機械学習アルゴリズムの組み合わせにおいて、少ない労力で推定結果を望む結果に変更するための適切なアクションと実施順序を取得できたことを確認し、特にローンの与信審査のケースでは半分以下の労力を実現したという。 この技術によって、AIが出した判断理由を知るだけでなく、個々の利用者が望む結果を得るために取るべき改善の手順を示すことが可能となる。 例え

                                              富士通研と北海道大が「説明可能なAI」を共同開発--AIの信頼性/透明性を向上
                                            • 因果関係に基づく公平・高精度な機械学習予測を実現~どんな予測が差別的かを指定しながら、人を対象とした効果的な予測が可能に~ | ニュースリリース | NTT

                                              日本電信電話株式会社(本社:東京都千代田区、代表取締役社長:澤田純、以下 NTT)は、因果関係に基づく公平・高精度な機械学習技術を実現しました。 融資承認や人材採用など、人を対象とした意思決定を機械学習予測によって行う場合、単純に予測精度のみを優先する機械学習技術を適用すると、性別・人種・障がいなど、人間が持つセンシティブな特徴に関して不公平な予測を行う機械学習モデルになってしまう可能性があります。一方で、どのような予測が不公平かということは個々の応用によって異なり、例えば「体力を要する職種における人材採用なので、体力の不足を理由とした不採用は不公平でない」とする場合も考えられ、このような不公平さに関する事前知識を活用しなければ、体力が不足した人材を採用し、予測精度が下がってしまうことがあります。 本技術では、不公平さに関する事前知識を、特徴・予測結果間の因果関係を表す因果グラフ(※1)と

                                                因果関係に基づく公平・高精度な機械学習予測を実現~どんな予測が差別的かを指定しながら、人を対象とした効果的な予測が可能に~ | ニュースリリース | NTT
                                              • Accumulated Local Effects(ALE)で機械学習モデルを解釈する - Dropout

                                                はじめに Partial Dependence 特徴量が独立の場合 数式による確認 PDの実装 特徴量が相関する場合 PDがうまく機能しない原因 Marginal Plot Marginal Plotの数式 Marginal Plotのアルゴリズム Maginal Plotの実装 Accumulated Local Effects ALEのアイデア ALEはうまく機能するのか ALEのアルゴリズム ALEの実装 ALEの数式 まとめ Appendix:線形回帰モデルの場合 参考文献 この記事をベースにした発表資料です! speakerdeck.com はじめに Random Forestやディープラーニングなどのブラックボックスモデルは、予測性能が高い一方で解釈性が低いというトレードオフを抱えています。 これを克服するために、ブラックボックスモデルに後から解釈性を与える「機械学習の解釈手法

                                                  Accumulated Local Effects(ALE)で機械学習モデルを解釈する - Dropout
                                                • Explainable AI in Industry (KDD 2019 Tutorial)

                                                  [Video recording available at https://www.youtube.com/playlist?list=PLewjn-vrZ7d3x0M4Uu_57oaJPRXkiS221] Artificial Intelligence is increasingly playing an integral role in determining our day-to-day experiences. Moreover, with proliferation of AI based solutions in areas such as hiring, lending, criminal justice, healthcare, and education, the resulting personal and professional implications of AI

                                                    Explainable AI in Industry (KDD 2019 Tutorial)
                                                  • 機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine

                                                    著者 鶴田 博文, 坪内 佑樹 所属 さくらインターネット株式会社 さくらインターネット研究所 研究会 第8回WebSystemArchitecture研究会 1. はじめに インターネットを介して利用するシステムの大規模化に伴い,システムの構成要素数の増大や,構成要素間の関係性の複雑化が進んでいる. そのため,システムの性能に異常が発生したときに,システムの状態を示す指標であるメトリックをシステム管理者が網羅的に目視することや,メトリック間の関係性を把握することができず,システムの異常原因を特定することが難しくなっている. この問題を解決するために,深層学習などの機械学習モデルを用いて,システムの異常の原因を診断する手法が提案されている[1,2]. これらの手法は,システム管理者が異常の根本原因を絞り込むために活用することが期待できる. しかし,原因診断を行うためには,事前に機械学習モデ

                                                      機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine
                                                    • Language models can explain neurons in language models

                                                      We use GPT-4 to automatically write explanations for the behavior of neurons in large language models and to score those explanations. We release a dataset of these (imperfect) explanations and scores for every neuron in GPT-2. Language models have become more capable and more broadly deployed, but our understanding of how they work internally is still very limited. For example, it might be diffic

                                                        Language models can explain neurons in language models
                                                      • XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)とは?

                                                        XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)とは?:AI・機械学習の用語辞典 用語「説明可能なAI」および「解釈性」について説明。推定結果に至るプロセスを人間が説明できるようになっている機械学習モデル(=AI本体)のこと、あるいはその技術・研究分野を指す。 連載目次 用語解説 説明可能なAI(人工知能)(Explainable AI:XAI)とは、言葉通り、予測結果や推定結果に至るプロセスが人間によって説明可能になっている機械学習のモデル(つまりAIの本体)のこと、あるいはそれに関する技術や研究分野のことを指す。ちなみに「XAI」は、米国のDARPA(Defense Advanced Research Projects Agency:国防高等研究計画局)が主導する研究プロジェクトが発端で、社会的に広く使われるようになった用語である。

                                                          XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)とは?
                                                        • 【US版Google公式ブログ記事】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか? | AI専門ニュースメディア AINOW

                                                          HOME/ AINOW編集部 /【機械学習の解釈可能性】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか?【Google公式ブログ】 US版Googleブログ記事のひとつ『テック専門家に聞く:機械学習モデルはどのように自らを説明するのか?』では、同ブログ編集部のスタッフのひとりであるAndrea Lewis Åkerman氏が、Googleに在籍している研究者Been Kim氏に機械学習について質問した時の回答をまとめています。質問のテーマは「機械学習の解釈可能性」についてです。 「医師」のような特定の職業名が男性に関連付けられて翻訳されるような現象は、「AIのバイアス」として知られています。こうしたバイアスを緩和・除去するうえで重要となるのが、機械学習モデルがバイアスを伴った判断を下した理由を理解可能なように説明する「解釈可能性」です。 Kim氏によると、解釈可能性を実現

                                                            【US版Google公式ブログ記事】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか? | AI専門ニュースメディア AINOW
                                                          • 機械学習の予測を解釈するKernel SHAPの高速性と拡張性の向上を目指したライブラリを開発した - Fire Engine

                                                            先日,協力ゲーム理論のシャープレイ値に基づき機械学習モデルの予測を解釈するKernel SHAPという手法の理論と既存のライブラリの実装についてのブログを書いた. blog.tsurubee.tech 既存のSHAPライブラリであるslundberg/shap(以下,単にSHAPライブラリと呼ぶ)は,SHAPの提案論文*1のファーストオーサーにより開発されており,多くのSHAPのアルゴリズムの実装や可視化の機能が非常に充実している素晴らしいライブラリである. しかし,私が自身の研究の中でSHAPライブラリの中のKernel SHAPを使っている際に,計算速度と拡張のしやすさの観点で改善したいポイントがいくつか出てきた.今回は,まだ絶賛開発中であるが,Kernel SHAPの高速性と拡張性の向上を目指したShapPackというライブラリのプロトタイプが完成したので,それについて紹介する. 目

                                                              機械学習の予測を解釈するKernel SHAPの高速性と拡張性の向上を目指したライブラリを開発した - Fire Engine
                                                            • 機械学習にも倫理教育を!機械学習モデルと公平性 - NRIネットコムBlog

                                                              はじめまして。喜早です。 業務では主に開発チームのマネジメントと要件定義を生業にして日々を過ごしています。 さて、多少エモめのタイトルをつけましたが、今回は機械学習とそれを構築する人間との倫理のお話をしようと思います。 機械学習モデルとバイアス 先日、社内の研修で、アンコンシャス・バイアス研修というものを受講しました。 アンコンシャス・バイアスを日本語訳すると「無意識の思い込み、偏見」です。 人間の行動は、自分の過去の経験や知識に基づいて発言や判断をすることが多いと思います。 その発言、判断の中に、自分でも無意識にステレオタイプや思い込みが含まれてしまっていることがあります。 アンコンシャス・バイアスは誰でも持っているものなので、完全に止めることはできない。 ただ、そういう人間の特性があることを自覚して、発言・判断を行う際には注意して行動しましょう、 というような内容でした。 で、これを受

                                                                機械学習にも倫理教育を!機械学習モデルと公平性 - NRIネットコムBlog
                                                              • 説明可能性とはなにか?NLPにおける説明可能AIの現状を徹底解説!

                                                                3つの要点 ✔️ 自然言語処理における説明可能AIについて ✔️ 説明可能な自然言語処理モデルの現状について ✔️ 説明可能性の実現に向けた課題について A Survey of the State of Explainable AI for Natural Language Processing written by Marina Danilevsky, Kun Qian, Ranit Aharonov, Yannis Katsis, Ban Kawas, Prithviraj Sen (Submitted on 1 Oct 2020) Comments: Accepted at AACL-IJCNLP2020 Subjects: Computation and Language (cs.CL); Artificial Intelligence (cs.AI); Machine Learn

                                                                  説明可能性とはなにか?NLPにおける説明可能AIの現状を徹底解説!
                                                                • 特徴量が多いデータセットに対して、特徴量重要度を用いた機械学習モデルの解釈がしやすくなる方法を開発しました![金子研論文]

                                                                    特徴量が多いデータセットに対して、特徴量重要度を用いた機械学習モデルの解釈がしやすくなる方法を開発しました![金子研論文]
                                                                  • 機械学習を解釈する技術 〜予測力と説明力を両立する実践テクニック

                                                                    2021年8月4日紙版発売 2021年7月30日電子版発売 森下光之助 著 A5判/256ページ 定価2,948円(本体2,680円+税10%) ISBN 978-4-297-12226-3 Gihyo Direct Amazon 楽天ブックス ヨドバシ.com 電子版 Gihyo Digital Publishing Amazon Kindle ブックライブ 楽天kobo honto 本書のサポートページサンプルファイルのダウンロードや正誤表など この本の概要 機械学習の研究開発が急速な勢いで進んでいます。理論研究はもちろん,機械学習手法が実装されたオープンソースのパッケージ開発も進み,それらを実務で利用するためのノウハウも蓄積されてきています。結果として,機械学習をはじめたばかりの入門者でも比較的高い精度の予測モデルを構築できるようになりました。 Deep Learning, Grad

                                                                      機械学習を解釈する技術 〜予測力と説明力を両立する実践テクニック
                                                                    • A Visual History of Interpretation for Image Recognition

                                                                      Image recognition (i.e. classifying what object is shown in an image) is a core task in computer vision, as it enables various downstream applications (automatically tagging photos, assisting visually impaired people, etc.), and has become a standard task on which to benchmark machine learning (ML) algorithms. Deep learning (DL) algorithms have, over the past decade, emerged as the most competitiv

                                                                        A Visual History of Interpretation for Image Recognition
                                                                      • アカウンタビリティ(Accountability、説明責任)とは?

                                                                        用語「アカウンタビリティ(Accountability)」について説明。ガバナンスと倫理の観点で、AIシステムの設計/実装の情報開示から結果/決定の説明までを行い、利害関係者に納得してもらう責任を指す。簡単に言うと、「AIシステムの挙動に対して、誰が/何が、責任を持つのか」を明らかにすること。 連載目次 用語解説 AI/機械学習システムにおけるアカウンタビリティ(Accountability、「説明責任」と訳されることが一般的)とは、ガバナンス(管理体制)と倫理の観点で、AIシステムの設計から実装に至るまでの情報を利害関係者(ステークホルダー)に開示し、出力結果や決定内容を説明する責任(※法的な責任も含む)を果たし、その説明に対する理解と納得を、利害関係者から得る責務があることを指す。簡単に言うと、「AIシステムの挙動に対して、誰が/何が、責任を持つのか」を明らかにすることである(図1)。

                                                                          アカウンタビリティ(Accountability、説明責任)とは?
                                                                        • 【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ | Amazon Web Services

                                                                          Amazon Web Services ブログ 【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ アマゾン ウェブ サービス ジャパン株式会社 機械学習ソリューションアーキテクトの大渕です。AWS Japan では、AI/ML 関連情報を発信するイベント「AWS AI/ML@Tokyo」を定期的に開催しています。2020年12月17日にオンラインで開催された AWS AI/ML@Tokyo #9 では、AWS の 機械学習ソリューションアーキテクトより Amazon SageMaker を使って機械学習モデルの可視化と説明可能性を実現する方法をご紹介し、ソリューションアーキテクトより AWS の AI/ML サービスにおけるセキュリティについてご紹介しました。また、お客様活用事例として、東日本旅客鉄道株式会社様より、画像認識を活

                                                                            【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ | Amazon Web Services
                                                                          • BigQuery Explainable AI now in GA to help you interpret your machine learning models | Google Cloud Blog

                                                                            BigQuery Explainable AI now in GA to help you interpret your machine learning models Explainable AI (XAI) helps you understand and interpret how your machine learning models make decisions. We're excited to announce that BigQuery Explainable AI is now generally available (GA). BigQuery is the data warehouse that supports explainable AI in a most comprehensive way w.r.t both XAI methodology and mod

                                                                              BigQuery Explainable AI now in GA to help you interpret your machine learning models | Google Cloud Blog
                                                                            • 「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?

                                                                              マサチューセッツ工科大学(MIT)は2022年6月1日(米国時間)、機械学習の予測を信頼するかどうか、ユーザーが判断するために用いる「説明モデル」に問題があると発表した。 機械学習の対象データとなる人々のうち、社会的に不利な立場にある人々で構成されるサブグループについては、精度が低くなる可能性があるという。 機械学習モデルは、意思決定支援に利用されることがある。例えば、「どのロースクール志願者が、司法試験に合格する可能性が高いか」をモデルが予測し、ロースクールの入試担当者がその予測結果を、(ロースクールの合格実績を高めるために)どの学生を合格させるかといった判断に役立てる場合がある。 機械学習モデルが複雑すぎて理解できない こうした機械学習モデルは多くの場合、数百万ものパラメーターを持つ。このため、モデルがどのように予測するかについては、機械学習の利用経験がない入試担当者はもとより、研究者

                                                                                「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?
                                                                              • 東北大学の研究グループが「AIの説明能力」を客観的に評価する方法論を構築

                                                                                東北大学は2021年4月27日、同大学大学院情報科学研究科理化学研究所の研究員である塙一晃氏、助教授の横井祥氏、教授の乾健太郎氏と、大阪大学産業科学研究所の准教授である原聡氏の研究グループが、AI(人工知能)の説明能力を客観的に評価するための方法論を構築したと発表した。 「AIの判断」の根拠として過去の事例を提示 研究グループは「自動運転や機械翻訳など、機械学習手法がさまざまな分野に応用されており、その有用性が示されている。だが、機械学習で出力された判断の根拠は不明なことが多い。医療や教育の分野ではAIの判断理由が特に重要なため、AIの判断根拠を示すための研究を進めている」という。 判断の根拠を示す方法として今回発表されたのが、判断で利用した「過去の類似事例」を提示する方法だ。これは、例えば画像の鳥の種類を当てる場合、AIが判断した鳥の名前と合わせて、別のその鳥の画像を提示するといった手法

                                                                                  東北大学の研究グループが「AIの説明能力」を客観的に評価する方法論を構築
                                                                                • Python: LIME (Local Interpretable Model Explanations) を LightGBM と使ってみる - CUBE SUGAR CONTAINER

                                                                                  今回は、機械学習モデルの解釈可能性を向上させる手法のひとつである LIME (Local Interpretable Model Explanations) を LightGBM と共に使ってみる。 LIME は、大局的には非線形なモデルを、局所的に線形なモデルを使って近似することで、予測の解釈を試みる手法となっている。 今回使った環境は次のとおり。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.15.7 BuildVersion: 19H2 $ python -V Python 3.8.5 もくじ もくじ 下準備 Boston データセットを LightGBM で学習させる LIME を使って局所的な解釈を得る 参考 下準備 まずは、下準備として使うパッケージをインストールしておく。 $ pip install lime sciki

                                                                                    Python: LIME (Local Interpretable Model Explanations) を LightGBM と使ってみる - CUBE SUGAR CONTAINER

                                                                                  新着記事