並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 48件

新着順 人気順

説明可能性の検索結果1 - 40 件 / 48件

  • 説明可能な機械学習のための数理最適化―混合整数線形最適化に基づく反実仮想説明法―

    メタデータをダウンロード RIS形式 (EndNote、Reference Manager、ProCite、RefWorksとの互換性あり)

    • 特徴量が多いデータセットに対して、特徴量重要度を用いた機械学習モデルの解釈がしやすくなる方法を開発しました![金子研論文]

        特徴量が多いデータセットに対して、特徴量重要度を用いた機械学習モデルの解釈がしやすくなる方法を開発しました![金子研論文]
      • 2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」

        オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models

          2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」
        • Language models can explain neurons in language models

          We use GPT-4 to automatically write explanations for the behavior of neurons in large language models and to score those explanations. We release a dataset of these (imperfect) explanations and scores for every neuron in GPT-2. Language models have become more capable and more broadly deployed, but our understanding of how they work internally is still very limited. For example, it might be diffic

            Language models can explain neurons in language models
          • 10万件以上の物件データを学習したのにクソ失礼にも家賃69万の物件に対して28万だと査定した機械学習モデルは何を考えているのか。 - Qiita

            10万件以上の物件データを学習したのにクソ失礼にも家賃69万の物件に対して28万だと査定した機械学習モデルは何を考えているのか。Python機械学習lightgbmSHAP こちらの記事をご覧いただきありがとうございます。 ちゃんと内容が伝わるようなタイトルを考えたらラノベみたいになってしまい、かえってわかりにくい気がしてきました。 以前からいくらかSUUMO物件について機械学習を用いたデータ分析を行っています。 今回は、10万件以上の物件データを与えてなかなか高精度な家賃予測が可能となった機械学習モデルが、クソ失礼にも家賃が安いと査定した高額物件がいくらかあったので、何を考えてクソ失礼な査定となったのかを調べます。 もしかしたらボッタくりかもわかりませんからね。楽しみですね。 モデルの学習について 基本的には前回記事と同じです。 使用した機械学習モデル 以前から引き続き LightGBM

              10万件以上の物件データを学習したのにクソ失礼にも家賃69万の物件に対して28万だと査定した機械学習モデルは何を考えているのか。 - Qiita
            • “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説

              “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説 一昔前まで、AIはフィクションの中の話だった。「2001年宇宙の旅」に登場したAI「HAL 9000」のように、人間の理解が遠く及ばない判断を実行する“人知を超えた存在”として描かれることが多かった。 しかし現在、AIは私たちの生活に浸透している。あらゆる分野でAIのビジネス活用が進む一方で、さまざまな課題も見えてきた。その一つがAIのブラックボックス化だ。AIで満足のいく結果を出力できても、「なぜその結果になったのか」「根拠はどこにあるのか」が分からない点を懸念する声がある。万が一トラブルが起きたとき、その理由を説明できないのはビジネス上のリスクだ。 「AIの創造は人類史上で最大の出来事ですが、リスク回避の方法を学ばなければ、残念ながら

                “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説
              • 「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?

                マサチューセッツ工科大学(MIT)は2022年6月1日(米国時間)、機械学習の予測を信頼するかどうか、ユーザーが判断するために用いる「説明モデル」に問題があると発表した。 機械学習の対象データとなる人々のうち、社会的に不利な立場にある人々で構成されるサブグループについては、精度が低くなる可能性があるという。 機械学習モデルは、意思決定支援に利用されることがある。例えば、「どのロースクール志願者が、司法試験に合格する可能性が高いか」をモデルが予測し、ロースクールの入試担当者がその予測結果を、(ロースクールの合格実績を高めるために)どの学生を合格させるかといった判断に役立てる場合がある。 機械学習モデルが複雑すぎて理解できない こうした機械学習モデルは多くの場合、数百万ものパラメーターを持つ。このため、モデルがどのように予測するかについては、機械学習の利用経験がない入試担当者はもとより、研究者

                  「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?
                • アングル:「理由を説明するAI」実用化、ビジネス激変の可能性

                  4月6日、米マイクロソフト傘下のビジネス向け交流サイト(SNS)「リンクトイン」は、ある人工知能(AI)ソフトウエアを昨年7月に営業チームに導入して以来、登録料収入が8%増えた。写真はイメージ。2013年6月撮影(2022年 ロイター/Kacper Pempel) [オークランド(米カリフォルニア州) 6日 ロイター] - 米マイクロソフト傘下のビジネス向け交流サイト(SNS)「リンクトイン」は、ある人工知能(AI)ソフトウエアを昨年7月に営業チームに導入して以来、登録料収入が8%増えた。 このAIは、例えば登録を解約しそうな顧客を予想するだけでなく、その結論に至った理由まで説明してくれる。AIが結論を導き出すプロセスを明らかにすることで、新たなビジネスチャンスを生み出す画期的なソフトだ。 AI科学者らにとって、ビジネスのあらゆる結果を正確に予測するシステムを設計するのは、わけもないことだ

                    アングル:「理由を説明するAI」実用化、ビジネス激変の可能性
                  • 日立ソリューションズ・テクノロジー、説明可能なAIを実現する「XAIツール」の対象DNNモデルを拡充

                      日立ソリューションズ・テクノロジー、説明可能なAIを実現する「XAIツール」の対象DNNモデルを拡充
                    • AIモデル学習の評価時/オペレーション時に発生するバイアスリスク、どう対処する?

                      AIモデル学習の評価時/オペレーション時に発生するバイアスリスク、どう対処する?:エンジニアが知っておくべきAI倫理(3) 正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第3回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について。 前回はデータのバイアスリスクへの対処法を、具体例を交えて解説した。今回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について解説する。考え方や手法、ツールがAI開発の一助になれば幸いだ。 AIモデルの不透明さ、不可解さをどう解決するか AIモデルにおいて、「精度は高いがなぜその出力がなされているか理解しがたい」といった問題が発生し得る。特にディープラーニングなどのAIモデルにおいて、モデルの入出力関係が解釈しづらく、ブラックボックスとなり、AIが誤った

                        AIモデル学習の評価時/オペレーション時に発生するバイアスリスク、どう対処する?
                      • Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog

                        長期インターン生の木村です。 今回、以前から興味を持っていた画像認識モデルにおける説明可能なAIのクラス活性化マッピング手法を調査してみました。 説明可能なAIとは 近年、深層学習ベースの画像認識モデルは製造業、医療、自動運転など至る場面で社会実装が進められていますが、ディープなラーニングを行っているだけに推論の判断根拠を人間が解釈できない問題があります。医療、自動運転のような命に関わる領域では安全性や公平性を担保できないために安心して導入できません。 このような問題を解決するのが「説明可能なAI(XAI)」です。 「説明可能なAI(XAI)」は、AIの推論結果を人間が解釈可能な形で出力する技術を指します。例えば、犬と猫が映っている画像を画像分類するAIが犬と推論した場合、モデルがどこを判断根拠としているかをヒートマップで可視化します。このヒートマップは、「顕著性マップ」と呼ばれます。 画

                          Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog
                        • Google、機械学習モデルにおける意思決定の解釈に役立つ「BigQuery Explainable AI」を一般提供

                          CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

                            Google、機械学習モデルにおける意思決定の解釈に役立つ「BigQuery Explainable AI」を一般提供
                          • BigQuery Explainable AI now in GA to help you interpret your machine learning models | Google Cloud Blog

                            BigQuery Explainable AI now in GA to help you interpret your machine learning models Explainable AI (XAI) helps you understand and interpret how your machine learning models make decisions. We're excited to announce that BigQuery Explainable AI is now generally available (GA). BigQuery is the data warehouse that supports explainable AI in a most comprehensive way w.r.t both XAI methodology and mod

                              BigQuery Explainable AI now in GA to help you interpret your machine learning models | Google Cloud Blog
                            • 「説明可能なAI」に企業が注目 欧州規制案などに対応 - 日本経済新聞

                              人工知能(AI)の活用に規制をかける動きが世界で強まっている。AIは意図せぬ結論を出したり、その理由が説明できなかったりすることが少なくないためで、欧州連合(EU)が2021年4月に公表した規制案では厳格な利用条件を設け、違反企業には罰金を科す。企業は規制強化に対応し、判断理由を提示できる「説明可能なAI(XAI)」の開発を急いでいる。企業はAIの活用で約束される自動化や効率化の恩恵を得ようとし

                                「説明可能なAI」に企業が注目 欧州規制案などに対応 - 日本経済新聞
                              • Accumulated Local Effects(ALE)で機械学習モデルを解釈する / TokyoR95

                                2021年10月30日に行われた、第95回R勉強会@東京(#TokyoR)での発表資料です。 https://tokyor.connpass.com/event/225967/ コードはこちらになります。 https://github.com/dropout009/tokyor95

                                  Accumulated Local Effects(ALE)で機械学習モデルを解釈する / TokyoR95
                                • Accumulated Local Effects(ALE)で機械学習モデルを解釈する - Dropout

                                  はじめに Partial Dependence 特徴量が独立の場合 数式による確認 PDの実装 特徴量が相関する場合 PDがうまく機能しない原因 Marginal Plot Marginal Plotの数式 Marginal Plotのアルゴリズム Maginal Plotの実装 Accumulated Local Effects ALEのアイデア ALEはうまく機能するのか ALEのアルゴリズム ALEの実装 ALEの数式 まとめ Appendix:線形回帰モデルの場合 参考文献 この記事をベースにした発表資料です! speakerdeck.com はじめに Random Forestやディープラーニングなどのブラックボックスモデルは、予測性能が高い一方で解釈性が低いというトレードオフを抱えています。 これを克服するために、ブラックボックスモデルに後から解釈性を与える「機械学習の解釈手法

                                    Accumulated Local Effects(ALE)で機械学習モデルを解釈する - Dropout
                                  • 機械学習の予測を解釈するKernel SHAPの高速性と拡張性の向上を目指したライブラリを開発した - Fire Engine

                                    先日,協力ゲーム理論のシャープレイ値に基づき機械学習モデルの予測を解釈するKernel SHAPという手法の理論と既存のライブラリの実装についてのブログを書いた. blog.tsurubee.tech 既存のSHAPライブラリであるslundberg/shap(以下,単にSHAPライブラリと呼ぶ)は,SHAPの提案論文*1のファーストオーサーにより開発されており,多くのSHAPのアルゴリズムの実装や可視化の機能が非常に充実している素晴らしいライブラリである. しかし,私が自身の研究の中でSHAPライブラリの中のKernel SHAPを使っている際に,計算速度と拡張のしやすさの観点で改善したいポイントがいくつか出てきた.今回は,まだ絶賛開発中であるが,Kernel SHAPの高速性と拡張性の向上を目指したShapPackというライブラリのプロトタイプが完成したので,それについて紹介する. 目

                                      機械学習の予測を解釈するKernel SHAPの高速性と拡張性の向上を目指したライブラリを開発した - Fire Engine
                                    • 協力ゲーム理論のシャープレイ値に基づき機械学習モデルの予測を解釈するKernel SHAPの理論と実装のまとめ - Fire Engine

                                      機械学習の幅広い分野への応用が進むにつれ,機械学習がその予測の根拠などを理解できない「ブラックボックス」となることが問題視されており,機械学習の解釈性や説明性が注目されています.今回のテーマであるSHAP(SHapley Additive exPlanations)は,機械学習モデルへの特定の入力に対する予測の根拠を提示する代表的な手法の一つです.SHAPには用途に応じていくつかのアルゴリズムがありますが,その中でも今回はあらゆる機械学習モデルに適用可能(Model-Agnostic)なKernel SHAPという手法についてまとめました. 構成としては,まずKernel SHAPとは何かについての概要を述べた後に, Kernel SHAPを理解する上で必要な要素である「シャープレイ値」と「SHAP」について説明します.さいごに,Kernel SHAPについて「理論」と「実装」に分けて書い

                                        協力ゲーム理論のシャープレイ値に基づき機械学習モデルの予測を解釈するKernel SHAPの理論と実装のまとめ - Fire Engine
                                      • 機械学習にも倫理教育を!機械学習モデルと公平性 - NRIネットコムBlog

                                        はじめまして。喜早です。 業務では主に開発チームのマネジメントと要件定義を生業にして日々を過ごしています。 さて、多少エモめのタイトルをつけましたが、今回は機械学習とそれを構築する人間との倫理のお話をしようと思います。 機械学習モデルとバイアス 先日、社内の研修で、アンコンシャス・バイアス研修というものを受講しました。 アンコンシャス・バイアスを日本語訳すると「無意識の思い込み、偏見」です。 人間の行動は、自分の過去の経験や知識に基づいて発言や判断をすることが多いと思います。 その発言、判断の中に、自分でも無意識にステレオタイプや思い込みが含まれてしまっていることがあります。 アンコンシャス・バイアスは誰でも持っているものなので、完全に止めることはできない。 ただ、そういう人間の特性があることを自覚して、発言・判断を行う際には注意して行動しましょう、 というような内容でした。 で、これを受

                                          機械学習にも倫理教育を!機械学習モデルと公平性 - NRIネットコムBlog
                                        • 意思決定の理由の可視化が可能なグラフ構造の学習アルゴリズムの紹介 - ZOZO TECH BLOG

                                          ZOZO研究所の清水です。弊社の社会人ドクター制度を活用しながら、「社内外に蓄積されているデータからビジネスへの活用が可能な知見を獲得するための技術」の研究開発に取り組んでいます。 弊社の社会人ドクター制度に関しては、以下の記事をご覧ください。 technote.zozo.com 私が現在取り組んでいるテーマの1つに、「機械学習が導き出した意思決定の理由の可視化」があります。この分野は「Explainable Artificial Intelligence(XAI)」と呼ばれ、近年注目を集めています。 図.XAIに関連する文献数の推移(引用:https://arxiv.org/abs/1910.10045) その中でも今回はユーザに対するアイテムの推薦問題に焦点を当て、「なぜこのユーザに対して、このアイテムが推薦されたのか?」という推薦理由の可視化が可能なモデルを紹介します。 本記事の概要

                                            意思決定の理由の可視化が可能なグラフ構造の学習アルゴリズムの紹介 - ZOZO TECH BLOG
                                          • 機械学習モデルの説明が必要な理由 | Google Cloud 公式ブログ

                                            ※この投稿は米国時間 2021 年 6 月 12 日に、Google Cloud blog に投稿されたものの抄訳です。 今日、多くの企業が積極的に AI を使用しており、また、今後の戦略として AI の導入を計画する企業も数多くあります。今では企業の 76% が、他のイニシアチブより優先して AI や ML に IT 予算を投じており、グローバルな AI 業界は 2027 年までに 2,600 億ドル規模にまで拡大すると想定されています。しかし、AI や高度な分析が普及するに従い、AI テクノロジーの仕組みに関して、さらなる透明性が求められるようになります。 この投稿では、広範な AI の導入において Explainable AI(XAI)が不可欠である理由と、一般的な XAI メソッドについて、また Google Cloud で行えることについてご説明します。 ML モデルの説明が必要

                                              機械学習モデルの説明が必要な理由 | Google Cloud 公式ブログ
                                            • 機械学習を解釈する技術 〜予測力と説明力を両立する実践テクニック

                                              2021年8月4日紙版発売 2021年7月30日電子版発売 森下光之助 著 A5判/256ページ 定価2,948円(本体2,680円+税10%) ISBN 978-4-297-12226-3 Gihyo Direct Amazon 楽天ブックス ヨドバシ.com 電子版 Gihyo Digital Publishing Amazon Kindle ブックライブ 楽天kobo honto 本書のサポートページサンプルファイルのダウンロードや正誤表など この本の概要 機械学習の研究開発が急速な勢いで進んでいます。理論研究はもちろん,機械学習手法が実装されたオープンソースのパッケージ開発も進み,それらを実務で利用するためのノウハウも蓄積されてきています。結果として,機械学習をはじめたばかりの入門者でも比較的高い精度の予測モデルを構築できるようになりました。 Deep Learning, Grad

                                                機械学習を解釈する技術 〜予測力と説明力を両立する実践テクニック
                                              • 機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine

                                                著者 鶴田 博文, 坪内 佑樹 所属 さくらインターネット株式会社 さくらインターネット研究所 研究会 第8回WebSystemArchitecture研究会 1. はじめに インターネットを介して利用するシステムの大規模化に伴い,システムの構成要素数の増大や,構成要素間の関係性の複雑化が進んでいる. そのため,システムの性能に異常が発生したときに,システムの状態を示す指標であるメトリックをシステム管理者が網羅的に目視することや,メトリック間の関係性を把握することができず,システムの異常原因を特定することが難しくなっている. この問題を解決するために,深層学習などの機械学習モデルを用いて,システムの異常の原因を診断する手法が提案されている[1,2]. これらの手法は,システム管理者が異常の根本原因を絞り込むために活用することが期待できる. しかし,原因診断を行うためには,事前に機械学習モデ

                                                  機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine
                                                • 因果関係に基づく公平・高精度な機械学習予測を実現~どんな予測が差別的かを指定しながら、人を対象とした効果的な予測が可能に~ | ニュースリリース | NTT

                                                  日本電信電話株式会社(本社:東京都千代田区、代表取締役社長:澤田純、以下 NTT)は、因果関係に基づく公平・高精度な機械学習技術を実現しました。 融資承認や人材採用など、人を対象とした意思決定を機械学習予測によって行う場合、単純に予測精度のみを優先する機械学習技術を適用すると、性別・人種・障がいなど、人間が持つセンシティブな特徴に関して不公平な予測を行う機械学習モデルになってしまう可能性があります。一方で、どのような予測が不公平かということは個々の応用によって異なり、例えば「体力を要する職種における人材採用なので、体力の不足を理由とした不採用は不公平でない」とする場合も考えられ、このような不公平さに関する事前知識を活用しなければ、体力が不足した人材を採用し、予測精度が下がってしまうことがあります。 本技術では、不公平さに関する事前知識を、特徴・予測結果間の因果関係を表す因果グラフ(※1)と

                                                    因果関係に基づく公平・高精度な機械学習予測を実現~どんな予測が差別的かを指定しながら、人を対象とした効果的な予測が可能に~ | ニュースリリース | NTT
                                                  • 説明可能なAIに関する書籍の和訳プロジェクト完了のお知らせ - HACARUS INC.

                                                    こんにちは、HACARUSでデータサイエンティストをしている増井です。先日、Christoph Molnar氏の Interpretable Machine Learning というAIの解釈性に関するの教科書の和訳プロジェクトを進めていることをこちらのブログにて紹介させていただきました。 11月ごろから和訳活動を始めていたのですが、遂に全ての和訳の公開が完了しましたのでお知らせします。 この書籍は、CC BY-NC-SA 4.0 のライセンスで提供されており、原著、和訳ともに web上で全編無料で読むことができます。和訳版は以下の URL からご覧になれます。 https://hacarus.github.io/interpretable-ml-book-ja/ ちなみに、Google 検索で、”Interpretable ML 和訳” と調べていただいても、上位に表示されると思います。

                                                      説明可能なAIに関する書籍の和訳プロジェクト完了のお知らせ - HACARUS INC.
                                                    • 東北大学の研究グループが「AIの説明能力」を客観的に評価する方法論を構築

                                                      東北大学は2021年4月27日、同大学大学院情報科学研究科理化学研究所の研究員である塙一晃氏、助教授の横井祥氏、教授の乾健太郎氏と、大阪大学産業科学研究所の准教授である原聡氏の研究グループが、AI(人工知能)の説明能力を客観的に評価するための方法論を構築したと発表した。 「AIの判断」の根拠として過去の事例を提示 研究グループは「自動運転や機械翻訳など、機械学習手法がさまざまな分野に応用されており、その有用性が示されている。だが、機械学習で出力された判断の根拠は不明なことが多い。医療や教育の分野ではAIの判断理由が特に重要なため、AIの判断根拠を示すための研究を進めている」という。 判断の根拠を示す方法として今回発表されたのが、判断で利用した「過去の類似事例」を提示する方法だ。これは、例えば画像の鳥の種類を当てる場合、AIが判断した鳥の名前と合わせて、別のその鳥の画像を提示するといった手法

                                                        東北大学の研究グループが「AIの説明能力」を客観的に評価する方法論を構築
                                                      • SHAPを用いて機械学習モデルを説明する l DataRobot

                                                        プラットフォームの概要 AI Platform 生成 AIおよび予測 AIのプラットフォーム もっと詳しく ドキュメント 新機能 ログイン 無料で始める 運用 自信を持ってAIを拡張し、比類のないエンタープライズ・モニタリングとコントロールでビジネス価値を促進 デプロイと実行 再学習と最適化 監視と介入 ガバナンス AIの環境、チーム、およびワークフローを統合し、大規模な範囲での完全な可視性と監視を実現 レジストリと管理 監査と承認 コンプライアンスドキュメント生成 構築 ニーズの進化に合わせて自由に適応できるオープンなAIエコシステムで、迅速なイノベーションを実現 分析と変換 学習とチューニング 組立てと比較 プラットフォーム統合 インフラストラクチャーへのデプロイ ソリューション 業界ごと ヘルスケア 製造 小売業 金融サービス 成果ごと ユースケースのライブラリー お客様事例 Dat

                                                          SHAPを用いて機械学習モデルを説明する l DataRobot
                                                        • GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models

                                                          Shapash is a Python library designed to make machine learning interpretable and comprehensible for everyone. It offers various visualizations with clear and explicit labels that are easily understood by all. With Shapash, you can generate a Webapp that simplifies the comprehension of interactions between the model's features, and allows seamless navigation between local and global explainability.

                                                            GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models
                                                          • 富士通研と北海道大が「説明可能なAI」を共同開発--AIの信頼性/透明性を向上

                                                            印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 富士通研究所と北海道大学は、人工知能(AI)が自動判断した結果をもとに、望む結果を得るために必要な手順を自動で提示できる技術を世界で初めて開発した。 今回、共同開発したAI技術を用いて、糖尿病、ローンの与信審査、ワインの評価の3種類のデータセットで検証したところ、今回の開発技術が全てのデータセットと機械学習アルゴリズムの組み合わせにおいて、少ない労力で推定結果を望む結果に変更するための適切なアクションと実施順序を取得できたことを確認し、特にローンの与信審査のケースでは半分以下の労力を実現したという。 この技術によって、AIが出した判断理由を知るだけでなく、個々の利用者が望む結果を得るために取るべき改善の手順を示すことが可能となる。 例え

                                                              富士通研と北海道大が「説明可能なAI」を共同開発--AIの信頼性/透明性を向上
                                                            • 富士通研究所と北海道大学、望む結果までの手順を導くことができる「説明可能なAI」を開発

                                                                富士通研究所と北海道大学、望む結果までの手順を導くことができる「説明可能なAI」を開発
                                                              • A Visual History of Interpretation for Image Recognition

                                                                Image recognition (i.e. classifying what object is shown in an image) is a core task in computer vision, as it enables various downstream applications (automatically tagging photos, assisting visually impaired people, etc.), and has become a standard task on which to benchmark machine learning (ML) algorithms. Deep learning (DL) algorithms have, over the past decade, emerged as the most competitiv

                                                                  A Visual History of Interpretation for Image Recognition
                                                                • Interpretable Machine Learning

                                                                  Interpretable Machine Learning A Guide for Making Black Box Models Explainable. Christoph Molnar 2021-05-31 要約 機械学習は、製品や処理、研究を改善するための大きな可能性を秘めています。 しかし、コンピュータは通常、予測の説明をしません。これが機械学習を採用する障壁となっています。 本書は、機械学習モデルや、その判断を解釈可能なものにすることについて書かれています。 解釈可能性とは何かを説明した後、決定木、決定規則、線形回帰などの単純で解釈可能なモデルについて学びます。 その後の章では、特徴量の重要度 (feature importance)やALE(accumulated local effects)や、個々の予測を説明するLIMEやシャープレイ値のようなモデルに非依存な手法(mo

                                                                  • 【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ | Amazon Web Services

                                                                    Amazon Web Services ブログ 【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ アマゾン ウェブ サービス ジャパン株式会社 機械学習ソリューションアーキテクトの大渕です。AWS Japan では、AI/ML 関連情報を発信するイベント「AWS AI/ML@Tokyo」を定期的に開催しています。2020年12月17日にオンラインで開催された AWS AI/ML@Tokyo #9 では、AWS の 機械学習ソリューションアーキテクトより Amazon SageMaker を使って機械学習モデルの可視化と説明可能性を実現する方法をご紹介し、ソリューションアーキテクトより AWS の AI/ML サービスにおけるセキュリティについてご紹介しました。また、お客様活用事例として、東日本旅客鉄道株式会社様より、画像認識を活

                                                                      【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ | Amazon Web Services
                                                                    • [Amazon SageMaker Clarify] 機械学習モデルの解釈可能性・公平性を確認できるSageMakerの新機能を使ってみた #reinvent | DevelopersIO

                                                                      こんにちは、Mr.Moです。 現在開催中のre:Invent 2020では次々と新しいサービスや新機能の発表がされています。その1つに「Amazon SageMaker Clarify」というSageMakerの新しい機能があります。こちらはブラックボックスになりがちな機械学習のモデルの解釈可能性・公平性を明らかにする際の支援をする機能です。さっそく実際に使いながら見ていきたいと思います。 なお、下記の速報記事とまとめ記事もありますのであわせてご覧いただければと思います。 Amazon SageMaker Clarifyとは? Amazon SageMaker Clarify は、潜在的なバイアスを検出し、モデルが行う予測の説明を支援することで、機械学習モデルの改善を支援します。SageMaker Clarify は、トレーニング前のデータやトレーニング後のデータに含まれる様々なタイプのバ

                                                                        [Amazon SageMaker Clarify] 機械学習モデルの解釈可能性・公平性を確認できるSageMakerの新機能を使ってみた #reinvent | DevelopersIO
                                                                      • 説明可能性とはなにか?NLPにおける説明可能AIの現状を徹底解説!

                                                                        3つの要点 ✔️ 自然言語処理における説明可能AIについて ✔️ 説明可能な自然言語処理モデルの現状について ✔️ 説明可能性の実現に向けた課題について A Survey of the State of Explainable AI for Natural Language Processing written by Marina Danilevsky, Kun Qian, Ranit Aharonov, Yannis Katsis, Ban Kawas, Prithviraj Sen (Submitted on 1 Oct 2020) Comments: Accepted at AACL-IJCNLP2020 Subjects: Computation and Language (cs.CL); Artificial Intelligence (cs.AI); Machine Learn

                                                                          説明可能性とはなにか?NLPにおける説明可能AIの現状を徹底解説!
                                                                        • 【US版Google公式ブログ記事】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか? | AI専門ニュースメディア AINOW

                                                                          HOME/ AINOW編集部 /【機械学習の解釈可能性】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか?【Google公式ブログ】 US版Googleブログ記事のひとつ『テック専門家に聞く:機械学習モデルはどのように自らを説明するのか?』では、同ブログ編集部のスタッフのひとりであるAndrea Lewis Åkerman氏が、Googleに在籍している研究者Been Kim氏に機械学習について質問した時の回答をまとめています。質問のテーマは「機械学習の解釈可能性」についてです。 「医師」のような特定の職業名が男性に関連付けられて翻訳されるような現象は、「AIのバイアス」として知られています。こうしたバイアスを緩和・除去するうえで重要となるのが、機械学習モデルがバイアスを伴った判断を下した理由を理解可能なように説明する「解釈可能性」です。 Kim氏によると、解釈可能性を実現

                                                                            【US版Google公式ブログ記事】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか? | AI専門ニュースメディア AINOW
                                                                          • Python: LIME (Local Interpretable Model Explanations) を LightGBM と使ってみる - CUBE SUGAR CONTAINER

                                                                            今回は、機械学習モデルの解釈可能性を向上させる手法のひとつである LIME (Local Interpretable Model Explanations) を LightGBM と共に使ってみる。 LIME は、大局的には非線形なモデルを、局所的に線形なモデルを使って近似することで、予測の解釈を試みる手法となっている。 今回使った環境は次のとおり。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.15.7 BuildVersion: 19H2 $ python -V Python 3.8.5 もくじ もくじ 下準備 Boston データセットを LightGBM で学習させる LIME を使って局所的な解釈を得る 参考 下準備 まずは、下準備として使うパッケージをインストールしておく。 $ pip install lime sciki

                                                                              Python: LIME (Local Interpretable Model Explanations) を LightGBM と使ってみる - CUBE SUGAR CONTAINER
                                                                            • 機械学習モデルの説明性・解釈性について -SHAPによる実践あり-|はやぶさの技術ノート

                                                                              機械学習とタスクについて 回帰や分類などのタスクに機械学習モデルを活用することがあります。 例えば、以下の記事ではフクロウの種類を分類するために深層学習モデルを活用しています。 PyTorch Lightning入門から実践まで -自前データセットで学習し画像分類モデルを生成-ディープラーニングフレームワークPytorchの軽量ラッパー”pytorch-lightning”の入門から実践までのチュートリアル記事を書きました。自前データセットを学習して画像分類モデルを生成し、そのモデルを使って推論するところまでソースコード付で解説しています。...

                                                                                機械学習モデルの説明性・解釈性について -SHAPによる実践あり-|はやぶさの技術ノート
                                                                              • 説明可能なAIとは | Googleの「Explainable AI」に触れながら解説 | Ledge.ai

                                                                                AIが注目されている理由のひとつであるディープラーニングには、モデルがブラックボックスになるという問題がある。そこで、医療業界や金融業界を筆頭に、「説明可能なAI」への注目が集まっている。今回は、そもそも説明可能なAIとは何か?という部分から、最近Googleが発表した説明可能なAIを実現するためのツールの長短まで、株式会社HACARUSのデータサイエンティストである宇佐見一平氏に解説してもらった。 こんにちは、HACARUSデータサイエンティストの宇佐見です。 「説明可能なAI」という言葉はご存知でしょうか。 説明可能なAIとは、米国のDARPAの研究が発端の概念で、モデルの予測が人間に理解可能であり、十分信頼に足る技術、またはそれに関する研究のことを指します。 たとえば医療業界のように、診断の理由を患者さんに説明しなけらばならない場合には、説明可能で解釈性の高いモデルが必要です。このよ

                                                                                  説明可能なAIとは | Googleの「Explainable AI」に触れながら解説 | Ledge.ai
                                                                                • 機械学習モデルの判断根拠の説明(Ver.2)

                                                                                  【第40回AIセミナー】 「説明できるAI 〜AIはブラックボックスなのか?〜」 https://www.airc.aist.go.jp/seminar_detail/seminar_040.html 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演ではこれら近年の代表的な説明法について紹介する。

                                                                                    機械学習モデルの判断根拠の説明(Ver.2)