並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 48 件 / 48件

新着順 人気順

説明可能性の検索結果41 - 48 件 / 48件

  • GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models

    Shapash is a Python library designed to make machine learning interpretable and comprehensible for everyone. It offers various visualizations with clear and explicit labels that are easily understood by all. With Shapash, you can generate a Webapp that simplifies the comprehension of interactions between the model's features, and allows seamless navigation between local and global explainability.

      GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models
    • “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説

      “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説 一昔前まで、AIはフィクションの中の話だった。「2001年宇宙の旅」に登場したAI「HAL 9000」のように、人間の理解が遠く及ばない判断を実行する“人知を超えた存在”として描かれることが多かった。 しかし現在、AIは私たちの生活に浸透している。あらゆる分野でAIのビジネス活用が進む一方で、さまざまな課題も見えてきた。その一つがAIのブラックボックス化だ。AIで満足のいく結果を出力できても、「なぜその結果になったのか」「根拠はどこにあるのか」が分からない点を懸念する声がある。万が一トラブルが起きたとき、その理由を説明できないのはビジネス上のリスクだ。 「AIの創造は人類史上で最大の出来事ですが、リスク回避の方法を学ばなければ、残念ながら

        “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説
      • 説明可能な機械学習のための数理最適化―混合整数線形最適化に基づく反実仮想説明法―

        メタデータをダウンロード RIS形式 (EndNote、Reference Manager、ProCite、RefWorksとの互換性あり)

        • 「説明可能なAI」に企業が注目 欧州規制案などに対応 - 日本経済新聞

          人工知能(AI)の活用に規制をかける動きが世界で強まっている。AIは意図せぬ結論を出したり、その理由が説明できなかったりすることが少なくないためで、欧州連合(EU)が2021年4月に公表した規制案では厳格な利用条件を設け、違反企業には罰金を科す。企業は規制強化に対応し、判断理由を提示できる「説明可能なAI(XAI)」の開発を急いでいる。企業はAIの活用で約束される自動化や効率化の恩恵を得ようとし

            「説明可能なAI」に企業が注目 欧州規制案などに対応 - 日本経済新聞
          • 機械学習モデルの説明が必要な理由 | Google Cloud 公式ブログ

            ※この投稿は米国時間 2021 年 6 月 12 日に、Google Cloud blog に投稿されたものの抄訳です。 今日、多くの企業が積極的に AI を使用しており、また、今後の戦略として AI の導入を計画する企業も数多くあります。今では企業の 76% が、他のイニシアチブより優先して AI や ML に IT 予算を投じており、グローバルな AI 業界は 2027 年までに 2,600 億ドル規模にまで拡大すると想定されています。しかし、AI や高度な分析が普及するに従い、AI テクノロジーの仕組みに関して、さらなる透明性が求められるようになります。 この投稿では、広範な AI の導入において Explainable AI(XAI)が不可欠である理由と、一般的な XAI メソッドについて、また Google Cloud で行えることについてご説明します。 ML モデルの説明が必要

              機械学習モデルの説明が必要な理由 | Google Cloud 公式ブログ
            • [Amazon SageMaker Clarify] 機械学習モデルの解釈可能性・公平性を確認できるSageMakerの新機能を使ってみた #reinvent | DevelopersIO

              こんにちは、Mr.Moです。 現在開催中のre:Invent 2020では次々と新しいサービスや新機能の発表がされています。その1つに「Amazon SageMaker Clarify」というSageMakerの新しい機能があります。こちらはブラックボックスになりがちな機械学習のモデルの解釈可能性・公平性を明らかにする際の支援をする機能です。さっそく実際に使いながら見ていきたいと思います。 なお、下記の速報記事とまとめ記事もありますのであわせてご覧いただければと思います。 Amazon SageMaker Clarifyとは? Amazon SageMaker Clarify は、潜在的なバイアスを検出し、モデルが行う予測の説明を支援することで、機械学習モデルの改善を支援します。SageMaker Clarify は、トレーニング前のデータやトレーニング後のデータに含まれる様々なタイプのバ

                [Amazon SageMaker Clarify] 機械学習モデルの解釈可能性・公平性を確認できるSageMakerの新機能を使ってみた #reinvent | DevelopersIO
              • 日立ソリューションズ・テクノロジー、説明可能なAIを実現する「XAIツール」の対象DNNモデルを拡充

                  日立ソリューションズ・テクノロジー、説明可能なAIを実現する「XAIツール」の対象DNNモデルを拡充
                • AIモデル学習の評価時/オペレーション時に発生するバイアスリスク、どう対処する?

                  AIモデル学習の評価時/オペレーション時に発生するバイアスリスク、どう対処する?:エンジニアが知っておくべきAI倫理(3) 正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第3回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について。 前回はデータのバイアスリスクへの対処法を、具体例を交えて解説した。今回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について解説する。考え方や手法、ツールがAI開発の一助になれば幸いだ。 AIモデルの不透明さ、不可解さをどう解決するか AIモデルにおいて、「精度は高いがなぜその出力がなされているか理解しがたい」といった問題が発生し得る。特にディープラーニングなどのAIモデルにおいて、モデルの入出力関係が解釈しづらく、ブラックボックスとなり、AIが誤った

                    AIモデル学習の評価時/オペレーション時に発生するバイアスリスク、どう対処する?