並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 21 件 / 21件

新着順 人気順

XAIの検索結果1 - 21 件 / 21件

  • ディープラーニングの研究が進めばAIのブラックボックス問題は解決しますか?

    回答 (5件中の1件目) ディープラーニングは昔ニューラルネット(神経回路網)と言われていました。 モデルとなった神経回路網において、神経の結合、処理状態がわかれば考えていることがわかるのか?と言われればそれは無理ですね。これはブラックボックスです。 じゃ、考えていることがわかるようなニューラルネットは作れるかと問われれば、できないと断言はできない。 ちなみに三十年くらい前のAIの主要トピックスは。 エキスパートシステム これは専門家の知識を記述するもので内容はわかります。 ファジーシステム どこ行ったんでしょうね? ニューラルネット でした。

      ディープラーニングの研究が進めばAIのブラックボックス問題は解決しますか?
    • 機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ

      ちょっと前に、しょうもないことを某所で放言したら思いの外拡散されてしまいました。 機械学習の説明可能性(解釈性)、大半のケースで求められているのは厳密な分類・回帰根拠ではなく受け手の「納得感」なので、特に実ビジネス上は説明可能性に長けたモデルを開発するより、納得できないお客さんを巧みに関係性構築した上で口八丁で完璧に説得できる凄腕営業ピープルを雇う方が重要— TJO (@TJO_datasci) 2019年11月23日 これ自体は与太話なので実際どうでも良い*1のですが、最近色々な研究や技術開発の進展はたまた実務家による考察などを見ていて、「機械学習の説明可能性(解釈性)というのは思った以上に複雑な迷宮だ」と感じることがままあったのでした。 ということで、今回の記事では僕のサーベイの範囲でザッと見て目についた資料などを超絶大雑把にリストアップした上で、主に実務における説明可能性とは何かとい

        機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ
      • 機械学習モデルの判断根拠の説明(Ver.2)

        【第40回AIセミナー】 「説明できるAI 〜AIはブラックボックスなのか?〜」 https://www.airc.aist.go.jp/seminar_detail/seminar_040.html 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演ではこれら近年の代表的な説明法について紹介する。

          機械学習モデルの判断根拠の説明(Ver.2)
        • グーグル「Explainable AI」発表--機械学習モデルが結論を得るプロセスの透明性向上へ

          ほとんどの人が何らかのアルゴリズムに日々接している一方、人工知能(AI)がどのように機能するのか、実際に理解していると自信を持って言える人はそれほど多くない。しかし、Googleが英国で現地時間11月20日から開催している「Google Cloud Next '19 UK」で発表した新たなツールは、一般の人々が機械学習(ML)の難解さをひもとくうえで力となるはずだ。 「Explainable AI」(説明可能なAI)と呼ばれるこのツールは、MLモデルが思考を重ねる手法と、結論に至った理由をユーザーに説明するという、その名が示す通りの機能を有している。 Explainable AIは、そういった機能を実現するために、データセット内の各特徴がアルゴリズムの導き出した結果にどの程度の影響を与えたのかを定量化する。つまり、それぞれのデータ係数には、MLモデルにどの程度影響を与えたのかを示すスコアが

            グーグル「Explainable AI」発表--機械学習モデルが結論を得るプロセスの透明性向上へ
          • 2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」

            オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models

              2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」
            • xAI、“全人類に利益をもたらすAIツール”を目指す「Grok」正式発表

              イーロン・マスク氏が7月に立ち上げたAI企業xAIは、同社初のAIモデル「Grok」を発表した。まだ初期β段階だが、ベンチマークでは「ChatGPT-3.5」や「Inflection-1」を上回るとしている。 イーロン・マスク氏率いる米AI企業xAIは11月4日(現地時間)、同社初のAIモデル「Grok」を発表した。マスク氏はそれに先立ち、GrokをXのハイエンドサブスクプランユーザーに提供する計画だとポスト済みだ。 xAIは企業サイトのトップページで「Grokは、『銀河ヒッチハイク・ガイド』をモデルにしたAIで、ほぼすべてのことに答えることを目的としており、質問すべきことを提案することさえできる」「ウィットに富んだ質問に答えるよう設計されており、反抗的な性格でもあるので、ユーモアが嫌いであれば使わないように」と説明している。 xAIは、全人類に利益をもたらすAIツールを構築するためにフィ

                xAI、“全人類に利益をもたらすAIツール”を目指す「Grok」正式発表
              • 機械学習における解釈性について | メルカリエンジニアリング

                こんにちは。Merpay Advent Calendar 2019 の24日目は、メルペイ Machine Learning チームの @yuhi が機械学習における解釈性についてお送りします。 目次 機械学習における解釈性とは なぜ解釈性が必要なのか 1. サービスを提供する事業者としての説明責任 2. 推論結果に対する社内外の関係者の理解 3. モデルのデバッグ、精度改善 どのようなアプローチがあるのか SHAPについて サマリ 基本的なアイディア 問題設定 説明可能モデルに対して満たしてほしい性質 説明可能モデルを求める SHAPの実装について 最後に References 機械学習における解釈性とは 深層学習をはじめとする機械学習分野の発展に伴って、これまでにないユニークなサービスが開発され、また多くの業界において業務が効率化、高度化されつつあります。メルペイでも機械学習を用いて、

                  機械学習における解釈性について | メルカリエンジニアリング
                • イーロン・マスク氏のxAI、LLM「Grok-1」をオープンに

                  イーロン・マスク氏が昨年7月に立ち上げたAI企業xAIは3月17日(日曜日)、同社のLLM「Grok-1」の基本モデルの重みとアーキテクチャをリリースすると発表した。GitHubで、Apache 2ライセンスで配布されている。 Grok-1は、同社が昨年11月に発表したチャットbot「Grok」のベースとなるLLM。マスク氏がオーナーである米Xの「Xプレミアムプラス」のユーザーは、Grokと会話できている。 xAIは「3140億パラメータのMixture-of-Experts(MoE)」モデルと説明しているが、トレーニングデータについては「特定のタスク用に微調整されていない大量のテキストデータ」としか開示していない。ちなみに、Grok-1と競合する米OpenAIの「GPT-3」のパラメータ数は約1750億で、「GPT-4」については公表されていない。 マスク氏は2月、OpenAIを“契約違

                    イーロン・マスク氏のxAI、LLM「Grok-1」をオープンに
                  • AIはレントゲン写真から人種を90%の確率で見分けられる、ただし見分け方は不明

                    人間の医師にとって、肌の色などがわからないレントゲン写真から患者の人種を見分けることは困難ですが、新たに医学誌のThe Lancet Digital Healthに発表された論文で、「AIは胸部X線画像から人種を90%の精度で見分けられる」ことが示されました。研究者らはAIが人種を見分ける方法についても調べましたが、今のところAIがどうやって人種を判別しているのかは不明とのことです。 AI recognition of patient race in medical imaging: a modelling study - The Lancet Digital Health https://www.thelancet.com/journals/landig/article/PIIS2589-7500(22)00063-2/fulltext MIT, Harvard scientists f

                      AIはレントゲン写真から人種を90%の確率で見分けられる、ただし見分け方は不明
                    • もはや人の介在は不要、AIが自らAIを作り判断根拠まで説明する時代が来た

                      ディープラーニング(深層学習)は人間にとってブラックボックスであり、AI(人工知能)による判断の根拠が不明だ―――。そんな懸念を解消する技術を米グーグル(Google)が2019年11月21日にリリースした。クラウドのサービスとして「Explainable AI(説明可能AI)」の提供を開始した。 Explainable AIは深層学習によって開発したAIにおけるニューラルネットワークの稼働状況を分析することで、AIによる判断の根拠を人間に分かる形で提示する技術である。例えば画像認識AIであれば、被写体を分類する際に根拠としたピクセルをハイライト表示する。 構造化データに基づいて判断するタイプのAIに関しては、ニューラルネットワークに入力したデータのどの部分(特徴)がAIの判断に寄与したのかを数値で示す。グーグルのクラウドAI事業を統括するバイス・プレジデント(VP)のラジェン・シェス氏は

                        もはや人の介在は不要、AIが自らAIを作り判断根拠まで説明する時代が来た
                      • アングル:「理由を説明するAI」実用化、ビジネス激変の可能性

                        4月6日、米マイクロソフト傘下のビジネス向け交流サイト(SNS)「リンクトイン」は、ある人工知能(AI)ソフトウエアを昨年7月に営業チームに導入して以来、登録料収入が8%増えた。写真はイメージ。2013年6月撮影(2022年 ロイター/Kacper Pempel) [オークランド(米カリフォルニア州) 6日 ロイター] - 米マイクロソフト傘下のビジネス向け交流サイト(SNS)「リンクトイン」は、ある人工知能(AI)ソフトウエアを昨年7月に営業チームに導入して以来、登録料収入が8%増えた。 このAIは、例えば登録を解約しそうな顧客を予想するだけでなく、その結論に至った理由まで説明してくれる。AIが結論を導き出すプロセスを明らかにすることで、新たなビジネスチャンスを生み出す画期的なソフトだ。 AI科学者らにとって、ビジネスのあらゆる結果を正確に予測するシステムを設計するのは、わけもないことだ

                          アングル:「理由を説明するAI」実用化、ビジネス激変の可能性
                        • 富士通研と北海道大が「説明可能なAI」を共同開発--AIの信頼性/透明性を向上

                          印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 富士通研究所と北海道大学は、人工知能(AI)が自動判断した結果をもとに、望む結果を得るために必要な手順を自動で提示できる技術を世界で初めて開発した。 今回、共同開発したAI技術を用いて、糖尿病、ローンの与信審査、ワインの評価の3種類のデータセットで検証したところ、今回の開発技術が全てのデータセットと機械学習アルゴリズムの組み合わせにおいて、少ない労力で推定結果を望む結果に変更するための適切なアクションと実施順序を取得できたことを確認し、特にローンの与信審査のケースでは半分以下の労力を実現したという。 この技術によって、AIが出した判断理由を知るだけでなく、個々の利用者が望む結果を得るために取るべき改善の手順を示すことが可能となる。 例え

                            富士通研と北海道大が「説明可能なAI」を共同開発--AIの信頼性/透明性を向上
                          • 【記事更新】私のブックマーク「説明可能AI」(Explainable AI) – 人工知能学会 (The Japanese Society for Artificial Intelligence)

                            説明可能AI(Explainable AI)原 聡(大阪大学産業科学研究所) はじめに2018年に本誌5 月号(Vol. 33, No. 3, pp. 366-369)の”私のブックマーク”に「機械学習における解釈性」という記事を書いた。前記事の執筆から1年が経ち、機械学習モデルの解釈・説明技術を取り巻く社会的な情勢の変化や新たな研究の発展など、数多くの進展があった。本記事はこれら近年の変化・進展についてまとめた、上記の”私のブックマーク”の続編である。本記事を読む前に、まずは上記の前記事をご一読いただきたい。 用語について本記事では、機械学習モデルの出力に加えて、その出力を補助する追加の情報(モデルの解釈、判断根拠の説明、など)を出力する技術一般および研究分野全体を指す用語としてXAI(Explainable AI, 説明可能AI)を用いる。XAIはアメリカの国防高等研究計画局(DARP

                            • SHapley Additive exPlanationsで機械学習モデルを解釈する / dgtalk5

                              2020年1月16日に行われたData Gateway Talk vol.5での発表資料です。 https://data-gateway-talk.connpass.com/event/155457/ この発表をログミーさんに記事化して頂きました。 こちらには資料の口頭での補足も入っています。 https://logmi.jp/tech/articles/322738

                                SHapley Additive exPlanationsで機械学習モデルを解釈する / dgtalk5
                              • 日本一詳しくGrad-CAMとGuided Grad-CAMのソースコードを解説してみる(Keras実装) - Qiita

                                背景 今更ながらGrad-CAMとGuided Grad-CAMを使う機会があったので、Keras実装のメジャーっぽいリポジトリを改造して利用したのですが、結構詰まりポイントが多かったので(私だけ?)復習もかねてソースコードを解説しようと思います。 そもそもGrad-CAM, Guided Grad-CAMとは? 簡単に言ってしまうと、CNNの判断根拠の可視化技術になります。 私は可視化については完全にビギナーなのですが、そんな私でも知ってるぐらい可視化の中ではメジャーどころなのではないでしょうか。 論文は2017に出されているので、おそらく発展手法(Grad-CAM++とか?)も沢山出ているとは思いますが、ビギナーなので情報の充実しているGrad-CAMを今回は使ってみました。 Grad-CAMの論文 見たことがあるかも知れませんがこちらがGrad-CAMとGuided Grad-CAM

                                  日本一詳しくGrad-CAMとGuided Grad-CAMのソースコードを解説してみる(Keras実装) - Qiita
                                • イーロン・マスクのAI企業が画像を理解可能なマルチモーダルAI「Grok-1.5」を発表、「GPT-4V」や「Gemini Pro 1.5」に匹敵する性能

                                  イーロン・マスク氏が設立したAI企業「xAI」が、同社初のマルチモーダルAIモデル「Grok-1.5」を発表しました。Grok-1.5は画像の理解が可能で、「フローチャートを認識してコードを書く」「栄養成分表示を見てカロリーを計算する」といった操作が可能です。 Grok-1.5 Vision Preview https://x.ai/blog/grok-1.5v Grok-1.5は1つのモデルで「文章生成」と「画像認識」に対応するマルチモーダルAIモデルです。Grok-1.5は既存のGrokユーザーと一部のテスターを対象に、近日中にテストが始まる予定です。 xAIはGrok-1.5の性能を示す例を複数公開しています。例えば、以下の例ではフローチャートを見せつつ「このフローチャートをPythonコードに変換して」と頼むだけでPythonのコードを出力できています。 また、栄養成分表示を見せて

                                    イーロン・マスクのAI企業が画像を理解可能なマルチモーダルAI「Grok-1.5」を発表、「GPT-4V」や「Gemini Pro 1.5」に匹敵する性能
                                  • 【Group-CAM】Grad-CAMはもう古い?最先端のCNNにおける判断根拠手法

                                    3つの要点 ✔️ 特徴量マップのノイズを排除する機構を含む ✔️ 高速な顕著性マップの推論が可能 ✔️ いくつかの実験で計算コストが少ないにも関わらずSOTAを達成 Group-CAM: Group Score-Weighted Visual Explanations for Deep Convolutional Networks written by Qinglong Zhang, Lu Rao, Yubin Yang (Submitted on 25 Mar 2021 (v1), last revised 19 Jun 2021 (this version, v4)) Comments: Published on arxiv. Subjects: Computer Vision and Pattern Recognition (cs.CV); Artificial Intelligen

                                      【Group-CAM】Grad-CAMはもう古い?最先端のCNNにおける判断根拠手法
                                    • オントロジー工学に基づくセマンティック技術(1)オントロジー工学入門

                                      オントロジー工学に基づくセマンティック技術(2)ナレッジグラフ入門Kouji Kozaki5.6K views•133 slides

                                        オントロジー工学に基づくセマンティック技術(1)オントロジー工学入門
                                      • PromptIDE

                                        xAI PromptIDEIntegrated development environment for prompt engineering and interpretability research November 6, 2023 The xAI PromptIDE is an integrated development environment for prompt engineering and interpretability research. It accelerates prompt engineering through an SDK that allows implementing complex prompting techniques and rich analytics that visualize the network's outputs. We use it

                                          PromptIDE
                                        • 「AIの説明」の現状とこれから

                                          1 n • ~2013.3, PhD@ , • 2013.4~2016.3, @IBM • 2016.4~2017.8, @ ERATO, NII • 2017.9~, @ , n • ECML’11 AISTATS’15,17 • AISTATS’18 AAAI’17,18 ongoing 2 – 1 n AI = • e.g. • 100 n AI 3 – 2 n AI n AI AI • AI • AI 4 AI AI n AI n • n • • n 5 n AI n AI n AI 6 AI n • n • 7 … AI n • n • 8 XX XX AI n • AI AI AI AI n • AI • n 9 AI n • • • AI • • 10 11 EU GDPR n GDPR-22 1. The data subject shall have the right

                                          • https://www.jst.go.jp/crds/sympo/201906_JSAI/pdf/02.pdf

                                            1