並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 18 件 / 18件

新着順 人気順

interpretabilityの検索結果1 - 18 件 / 18件

  • 【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」 – 人工知能学会 (The Japanese Society for Artificial Intelligence)

    Home » リソース » 私のブックマーク » 【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」 機械学習における解釈性 (Interpretability in Machine Learning) 原 聡(大阪大学産業科学研究所) はじめに 近年の人工知能技術、特に機械学習の発展に伴い、これらの技術への社会的な期待が高まっている。 しかし、このような期待の高まりと同時にこれら技術への不安も高まっている。 特に、深層学習モデルを初めとする機械学習モデルが複雑なブラックボックスであるがゆえに安易に信頼できないとする懸念の声が上がり初めている。 これに対し、総務省はAIの利用の一層の増進とそれに伴うリスクの抑制のために「AI開発ガイドライン案」[1]を2017年に策定した。 このガイドライン案では、上記のような

    • The Building Blocks of Interpretability

      Interpretability techniques are normally studied in isolation. We explore the powerful interfaces that arise when you combine them — and the rich structure of this combinatorial space. With the growing success of neural networks, there is a corresponding need to be able to explain their decisions — including building confidence about how they will behave in the real-world, detecting model bias, an

        The Building Blocks of Interpretability
      • XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)とは?

        XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)とは?:AI・機械学習の用語辞典 用語「説明可能なAI」および「解釈性」について説明。推定結果に至るプロセスを人間が説明できるようになっている機械学習モデル(=AI本体)のこと、あるいはその技術・研究分野を指す。 連載目次 用語解説 説明可能なAI(人工知能)(Explainable AI:XAI)とは、言葉通り、予測結果や推定結果に至るプロセスが人間によって説明可能になっている機械学習のモデル(つまりAIの本体)のこと、あるいはそれに関する技術や研究分野のことを指す。ちなみに「XAI」は、米国のDARPA(Defense Advanced Research Projects Agency:国防高等研究計画局)が主導する研究プロジェクトが発端で、社会的に広く使われるようになった用語である。

          XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)とは?
        • 多値分類における階層構造を利用したマルチタスク学習とその解釈性 / Multi-task Learning for solving hierarchical multilabel classification and its interpretability - Speaker Deck

          ■イベント 【Sansan×エムスリー】自然言語処理勉強会(ライブ配信あり) https://sansan.connpass.com/event/125652/ ■登壇概要 タイトル:多値分類における階層構造を利用したマルチタスク学習とその解釈性 登壇者:DSOC R&D Group 奥田裕樹 ▼Sansan Builders Box https://buildersbox.corp-sansan.com/

            多値分類における階層構造を利用したマルチタスク学習とその解釈性 / Multi-task Learning for solving hierarchical multilabel classification and its interpretability - Speaker Deck
          • Language Interpretability Tool (LIT) の紹介 - 機械学習 Memo φ(・ω・ )

            概要 Google Researchが、言語解釈ツール Language Interpretability Tool (LIT) を紹介する論文を出しました。NLPモデルが期待どおりに動作しない場合に、何が問題かを解明するために役立つツールだと記載されていて、便利そうだと思い試しに動かしてみたので、LITの簡単な紹介を記載します。 [2008.05122] The Language Interpretability Tool: Extensible, Interactive Visualizations and Analysis for NLP Models 概要 LITとは インストール LITの起動 インスタンスの起動 quickstart_sst_demo pretrained_lm_demo インスタンス起動用のスクリプト作成 Datasetクラス Modelクラス 公式ドキュメン

              Language Interpretability Tool (LIT) の紹介 - 機械学習 Memo φ(・ω・ )
            • 機械学習と解釈可能性 / Machine Learning and Interpretability

              吉永尊洸(LINE株式会社 Data Labs) ソフトウェアジャパン2019(2019/2/5)での発表資料です。 https://www.ipsj.or.jp/event/sj/sj2019/Bigdata.html

                機械学習と解釈可能性 / Machine Learning and Interpretability
              • Visual Interpretability for Deep Learning: a Survey

                This paper reviews recent studies in understanding neural-network representations and learning neural networks with interpretable/disentangled middle-layer representations. Although deep neural networks have exhibited superior performance in various tasks, the interpretability is always the Achilles' heel of deep neural networks. At present, deep neural networks obtain high discrimination power at

                • 機械学習の公平性と解釈可能性 / Fairness, Interpretability, and Explainability Federation of Workshops

                  https://connpass.com/event/92705/

                    機械学習の公平性と解釈可能性 / Fairness, Interpretability, and Explainability Federation of Workshops
                  • GitHub - PAIR-code/lit: The Learning Interpretability Tool: Interactively analyze ML models to understand their behavior in an extensible and framework agnostic interface.

                    The Learning Interpretability Tool (🔥LIT, formerly known as the Language Interpretability Tool) is a visual, interactive ML model-understanding tool that supports text, image, and tabular data. It can be run as a standalone server, or inside of notebook environments such as Colab, Jupyter, and Google Cloud Vertex AI notebooks. LIT is built to answer questions such as: What kind of examples does m

                      GitHub - PAIR-code/lit: The Learning Interpretability Tool: Interactively analyze ML models to understand their behavior in an extensible and framework agnostic interface.
                    • 【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」 – 人工知能学会 (The Japanese Society for Artificial Intelligence)

                      Home » リソース » 私のブックマーク » 【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」 機械学習における解釈性 (Interpretability in Machine Learning) 原 聡(大阪大学産業科学研究所) はじめに 近年の人工知能技術、特に機械学習の発展に伴い、これらの技術への社会的な期待が高まっている。 しかし、このような期待の高まりと同時にこれら技術への不安も高まっている。 特に、深層学習モデルを初めとする機械学習モデルが複雑なブラックボックスであるがゆえに安易に信頼できないとする懸念の声が上がり初めている。 これに対し、総務省はAIの利用の一層の増進とそれに伴うリスクの抑制のために「AI開発ガイドライン案」[1]を2017年に策定した。 このガイドライン案では、上記のような

                      • GitHub - tensorflow/lucid: A collection of infrastructure and tools for research in neural network interpretability.

                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

                          GitHub - tensorflow/lucid: A collection of infrastructure and tools for research in neural network interpretability.
                        • 機械学習の解釈性とパフォーマンスの両立を目指して:Human-in-the-Loop Interpretability Prior | 10001 ideas

                            機械学習の解釈性とパフォーマンスの両立を目指して:Human-in-the-Loop Interpretability Prior | 10001 ideas
                          • GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models

                            Shapash is a Python library designed to make machine learning interpretable and comprehensible for everyone. It offers various visualizations with clear and explicit labels that are easily understood by all. With Shapash, you can generate a Webapp that simplifies the comprehension of interactions between the model's features, and allows seamless navigation between local and global explainability.

                              GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models
                            • Learning Interpretability Tool

                              The Learning Interpretability Tool (🔥LIT) is a visual, interactive ML model-understanding tool that supports text, image, and tabular data. The Learning Interpretability Tool (🔥LIT) is for researchers and practitioners looking to understand NLP model behavior through a visual, interactive, and extensible tool. Use LIT to ask and answer questions like: What kind of examples does my model perform

                              • GitHub - pytorch/captum: Model interpretability and understanding for PyTorch

                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

                                  GitHub - pytorch/captum: Model interpretability and understanding for PyTorch
                                • GitHub - sicara/tf-explain: Interpretability Methods for tf.keras models with Tensorflow 2.x

                                  A tag already exists with the provided branch name. Many Git commands accept both tag and branch names, so creating this branch may cause unexpected behavior. Are you sure you want to create this branch?

                                    GitHub - sicara/tf-explain: Interpretability Methods for tf.keras models with Tensorflow 2.x
                                  • Captum · Model Interpretability for PyTorch

                                    import numpy as np import torch import torch.nn as nn from captum.attr import IntegratedGradients class ToyModel(nn.Module): def __init__(self): super().__init__() self.lin1 = nn.Linear(3, 3) self.relu = nn.ReLU() self.lin2 = nn.Linear(3, 2) # initialize weights and biases self.lin1.weight = nn.Parameter(torch.arange(-4.0, 5.0).view(3, 3)) self.lin1.bias = nn.Parameter(torch.zeros(1,3)) self.lin2.

                                      Captum · Model Interpretability for PyTorch
                                    • Interpretability in Machine Learning: An Overview

                                      This essay provides a broad overview of the sub-field of machine learning interpretability. While not exhaustive, my goal is to review conceptual frameworks, existing research, and future directions. I follow the categorizations used in Lipton et al.'s Mythos of Model Interpretability, which I think is the best paper for understanding the different definitions of interpretability. We'll go over ma

                                        Interpretability in Machine Learning: An Overview
                                      1