並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 172件

新着順 人気順

説明可能性の検索結果81 - 120 件 / 172件

  • 説明可能性とはなにか?NLPにおける説明可能AIの現状を徹底解説!

    3つの要点 ✔️ 自然言語処理における説明可能AIについて ✔️ 説明可能な自然言語処理モデルの現状について ✔️ 説明可能性の実現に向けた課題について A Survey of the State of Explainable AI for Natural Language Processing written by Marina Danilevsky, Kun Qian, Ranit Aharonov, Yannis Katsis, Ban Kawas, Prithviraj Sen (Submitted on 1 Oct 2020) Comments: Accepted at AACL-IJCNLP2020 Subjects: Computation and Language (cs.CL); Artificial Intelligence (cs.AI); Machine Learn

      説明可能性とはなにか?NLPにおける説明可能AIの現状を徹底解説!
    • 行政文書 総務省“説明可能性も 内容の正確さ確認できず”調査結果 | NHK

      高市経済安全保障担当大臣が「ねつ造だ」としている行政文書をめぐり、総務省は、当時、高市大臣への放送関係の説明が行われた可能性は高いとする一方、文書の内容が正確かどうかは確認できなかったとする、調査結果をまとめました。 総務省が公表した行政文書には、当時の高市総務大臣に、放送法が定める『政治的公平』の解釈をめぐって「レク」と呼ばれる説明が行われたと記載されていますが、高市大臣は「その時期に『政治的公平』の解釈についての説明を受けてはおらず、内容はねつ造だ」と主張しています。 こうした中、総務省は、22日の参議院予算委員会の理事懇談会に、関係者への聞き取り調査の結果を示しました。 この中では、「資料が残っているのであれば、『政治的公平』に関するレクがなかったとは考えにくい」という証言が複数あったとしています。 一方、「放送関係のレクはあったかもしれないが、時期や内容までは覚えていない」という関

        行政文書 総務省“説明可能性も 内容の正確さ確認できず”調査結果 | NHK
      • 特徴量が多いデータセットに対して、特徴量重要度を用いた機械学習モデルの解釈がしやすくなる方法を開発しました![金子研論文]

          特徴量が多いデータセットに対して、特徴量重要度を用いた機械学習モデルの解釈がしやすくなる方法を開発しました![金子研論文]
        • 機械学習エンジニアのキャリアパス。プロダクトマネージャーという選択肢が拓く可能性 | Offers Magazine

          「Offersエージェント」では、業界で活躍するプロフェッショナルがあなたの転職を徹底サポート。CxO経験者を含む現役エンジニア・デザイナー・プロダクトマネージャーが在籍し、職種に特化した専門的なアドバイスをご提供・非公開求人の紹介も可能です。 →【かんたん30秒】無料登録で転職相談する ▲海外でのイベント登壇時の写真 はじめまして。トレジャーデータでプロダクトマネージャー (Product Manager; PdM) を務めている北澤 (@takuti) と申します。 大学院修了後にトレジャーデータに機械学習エンジニアとして入社してから約3年間、データサイエンス・機械学習のプロダクト化および顧客への導入支援・コンサルティング、そして関連分野のエバンジェリズムを担ってきました。 そんな私が社内でPdMに転身したのが2020年2月。 転生しました。https://t.co/pX4ZI56r8

            機械学習エンジニアのキャリアパス。プロダクトマネージャーという選択肢が拓く可能性 | Offers Magazine
          • GoogleのMLOps実践ホワイトペーパー Practitioners Guide to Machine Learning Operations (MLOps) 要点まとめ - 肉球でキーボード

            Googleが公開した、MLOps実践のためのホワイトペーパー GoogleがMLOps実践のためのホワイトペーパーを公開しています。 Practitioners Guide to Machine Learning Operations (MLOps) 2021年5月に公開されたものですが、2024年現在に読んでも色褪せない内容だったので、各章の要点をまとめました。 TL;DR Googleが2021年5月に公開したMLOpsの実践のためのホワイトペーパー MLOpsライフサイクルの全体像・コア機能を解説 コア機能: 実験、データ処理、モデル学習、モデル評価、モデルサービング、オンライン実験、モデル監視、MLパイプライン、モデルレジストリ、データセット・特徴量レポジトリ、MLメタデータ・アーティファクトトラッキング MLOpsのコアプロセスの詳細を解説 コアプロセス: ML開発、学習の運用

              GoogleのMLOps実践ホワイトペーパー Practitioners Guide to Machine Learning Operations (MLOps) 要点まとめ - 肉球でキーボード
            • DreamerV2の実装: 世界モデルベース強化学習でブロック崩し - どこから見てもメンダコ

              世界モデル系強化学習の先端手法であるDreamerV2をブロック崩し(BreakoutDeterministic-v4)向けに実装しました。 はじめに 世界モデルベース強化学習とは DreamerV2:Atari環境で初めてモデルフリー手法に並んだ世界モデルベース強化学習 世界モデル(World Models)について 方策の獲得 Dreamerへの系譜 Wolrd Models (2018) PlaNet: Deep Planning Network (2019) Dreamer (2020) DreamerV2 (2021) 非VAEの状態遷移モデル:MuZero(2020) Tensorflow2による実装例 世界モデル部 ロールアウト部 強化学習エージェント部 学習結果 雑記 DreamerV3 論文: DreamerV2: [2010.02193] Mastering Atari

                DreamerV2の実装: 世界モデルベース強化学習でブロック崩し - どこから見てもメンダコ
              • ブルース・シュナイアーが予言する「AIがハッカーになり人間社会を攻撃する日」 - YAMDAS現更新履歴

                www.belfercenter.org ブルース・シュナイアー先生が Wired に「Hackers Used to Be Humans. Soon, AIs Will Hack Humanity(ハッカーはかつて人間だった。じきに AI が人間性をハックする)」という文章を寄稿している。 その趣旨はタイトルの通り、じきに AI がハッカー(ここでの「ハッカー」は優れたプログラマーという意味ではなく、コンピュータやネットワークのセキュリティ侵害を行う存在を指している)になるぞという話だが、その文章の中で「最近発表したレポート」としてリンクされている文章である。 軽い気持ちで読み始めたら、長い……とても長い……かなり長い……読んでも読んでも終わらない……なんとか読み終わったが、かなーりな時間がかかったので、内容をまとめてみようと思う。 しかし考えてみれば、上でリンクした Wired の寄稿

                  ブルース・シュナイアーが予言する「AIがハッカーになり人間社会を攻撃する日」 - YAMDAS現更新履歴
                • 説明可能AIは「人間を賢くする」、医療分野での最新研究はここまで来た

                  理研AIPセンターや日本医科大学などの研究チームは2019年12月18日、病理画像を診断する画像認識AIの「説明可能性」を高める技術を開発したと発表した。英オンライン科学誌「Nature Communications」に同日掲載された論文の概要は「診断注釈(annotation)のない組織病理画像から、説明可能な機能を自動的に取得できることを示した」としている。 研究チームが開発したのは、前立腺がん組織を撮影した病理画像から、摘出後のがん再発の有無を予測するAI技術である。がん再発の予測は手術後の治療方針を決める重要な手掛かりになる。今回の研究成果のポイントは、従来の診断基準にはなかった、がん再発の予測精度を高める新たな知見をAIが見いだしたというものだ。 これまで医療画像を診断するAIと言えば、画像から病変の有無や位置を判定できる一方、「なぜ病変と判定したのか」までは説明できないのが一般

                    説明可能AIは「人間を賢くする」、医療分野での最新研究はここまで来た
                  • 機械学習を解釈する技術 〜予測力と説明力を両立する実践テクニック

                    2021年8月4日紙版発売 2021年7月30日電子版発売 森下光之助 著 A5判/256ページ 定価2,948円(本体2,680円+税10%) ISBN 978-4-297-12226-3 Gihyo Direct Amazon 楽天ブックス ヨドバシ.com 電子版 Gihyo Digital Publishing Amazon Kindle ブックライブ 楽天kobo honto 本書のサポートページサンプルファイルのダウンロードや正誤表など この本の概要 機械学習の研究開発が急速な勢いで進んでいます。理論研究はもちろん,機械学習手法が実装されたオープンソースのパッケージ開発も進み,それらを実務で利用するためのノウハウも蓄積されてきています。結果として,機械学習をはじめたばかりの入門者でも比較的高い精度の予測モデルを構築できるようになりました。 Deep Learning, Grad

                      機械学習を解釈する技術 〜予測力と説明力を両立する実践テクニック
                    • 【レポート】AWS Summit Tokyo 2023:責任ある AI (Responsible AI) を理論から実践へ #AWSSummit | DevelopersIO

                      【レポート】AWS Summit Tokyo 2023:責任ある AI (Responsible AI) を理論から実践へ #AWSSummit こんにちは、AWS事業本部オペレーション部の坂本です。 AWS Summit Tokyoに7年ぶりくらいに参加してきました。 幕張メッセで開催するAWS Summitの参加は初めてでした。 本記事では、2023年4月21日行われた「責任ある AI (Responsible AI) を理論から実践へ 」に関する内容をレポートします。 セッション情報 セッションについては以下の通りです。 ■スピーカー アマゾン ウェブ サービス ジャパン合同会社 パブリックセクター 技術統括本部 ソリューションアーキテクト 片山 洋平氏 ■概要 人工知能(AI)と機械学習(ML)は、社会課題への取り組みを支援し、企業における顧客体験の向上やイノベーションの促進のため

                        【レポート】AWS Summit Tokyo 2023:責任ある AI (Responsible AI) を理論から実践へ #AWSSummit | DevelopersIO
                      • ディープラーニング実践ガイド

                        本書では、ディープラーニングの研究で受賞歴のある3人の著者が、アイデアを現実世界の人々が使用できるものに変換するプロセスをステップバイステップで丁寧に解説します。構築するのは、クラウド、モバイル、ブラウザ、エッジデバイス向けの実用的なディープラーニングアプリケーションです。一部の章ではその章で扱うトピックの専門家をゲスト執筆者に迎えてさまざまな手法を解説しているので、読者のニーズにマッチするアプリケーションがきっと見つかるでしょう。対象読者は、ディープラーニングの世界にこれから参入したいソフトウェアエンジニアやベテランのデータサイエンティストから、AIを搭載した独自のアプリを作りたいけれど何から始めればいいのかわからないホビーストまで。 賞賛の声 監訳者まえがき まえがき 1章 人工知能の概観 1.1 おわび 1.2 ここからが本当のイントロダクション 1.3 AIとは 1.3.1 きっか

                          ディープラーニング実践ガイド
                        • 金融サービスにおける機械学習のベストプラクティス | Amazon Web Services

                          Amazon Web Services ブログ 金融サービスにおける機械学習のベストプラクティス 本投稿は、金融サービスのお客様が AWS でエンドツーエンドの機械学習ソリューションを構築して運用化する支援をしている Stefan Natu 、Amazon SageMaker のシニア事業開発マネージャーである Kosti Vasilakakis 、アマゾン ウェブ サービス、ワールドワイド金融サービス事業開発の資本市場スペシャリストである Alvin Huang 、アマゾン ウェブ サービスのプリンシパル機械学習アーキテクチャ兼 AI/ML ソリューションアーキテクチャのシニアマネージャー であるDavid Ping の4名による寄稿を翻訳したものです。 先日、AWS は機械学習 (ML) ワークフローを構築している金融機関のためのセキュリティとモデルガバナンスに関する考慮事項の要点をま

                            金融サービスにおける機械学習のベストプラクティス | Amazon Web Services
                          • 生成AIはいずれ創造性を獲得する。そのときクリエイターに価値はある? (1/3)

                            前編に続き、『AIの倫理リスクをどうとらえるか:実装のための考え方』リード・ブラックマン(白揚社)の翻訳者・小林啓倫さんにお話をうかがいます 〈前編はこちら〉 ユーザーからの反発を企業はどう受け止めるべきか? AI関連サービス普及によって、マンガ・アニメの領域などさまざまな界隈で引き起こされているAIと倫理の問題について、注目の書籍『AIの倫理リスクをどうとらえるか:実装のための考え方』リード・ブラックマン(白揚社)の翻訳者・小林啓倫さんにうかがっていく。 ◆ ―― では前回の終わり際の話題からいきましょう。 倫理をストラクチャーとコンテンツに整理し、そのうえで、実効性はあっても何をしたいのか不明確になりがちなストラクチャーではなく、AIで何をしたいのかというコンテンツから定めていくことが重要だとうかがいました。 しかしながら、たとえばCLIP STUDIO PAINTは「クリエイターの利

                              生成AIはいずれ創造性を獲得する。そのときクリエイターに価値はある? (1/3)
                            • [翻訳] GPT-4 System Card (後編) - Qiita

                              こちらの後半にあるGPT-4 System Cardの翻訳です。前後編の後編です。前編はこちら。Technical Reportはこちら。 Databricksのユーザー会でChatGPTの勉強会やります。 注意 本書は抄訳であり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。 脚注、参考文献、Appendixなどは本文をご覧ください。 3 デプロイメントの準備 OpenAIはより安全なローンチに備えるために8月上旬以来、GPT-4とデプロイメント計画に対してイテレーション[21]を行ってきました。我々は、これによってリスクの浮上を押し留めていると信じていますが、完全に排除したわけではありません。現在のデプロイメントは、デプロイメントによるリスクの最小化と、ポジティブなユースケースの実現、デプロイメントからの学習のバランスをとっています。この期間における我

                                [翻訳] GPT-4 System Card (後編) - Qiita
                              • AIは経営層のプライドをズタズタにする? AIが普及しない3つの原因

                                関連キーワード 機械学習 機械学習をはじめとする人工知能(AI)技術はコスト削減に貢献し、従業員の思考力を必要としない作業を減らす助けになり、従業員にもっと意味のある仕事を与えながら、利益を増大させることができる。だがAI技術の普及は遅れており、AI技術をほとんど、あるいは全く導入していない組織は、さまざまな業界を横断して多数に上る。原因は何なのだろか。 監査、税務、助言サービス企業のKPMGがこのほど実施したAI技術普及調査「KPMG 2019 Enterprise AI Adoption Study」によると、同社が調査対象とした30社の約30%は、一部の機能にAI技術を導入していると回答した。約半分は、向こう3年以内にAI技術を本格導入する見通しを示した。ただし既にAI技術を本格的に利用している企業は、調査対象とした企業の17%にとどまった。この30社は、経済誌Fortuneによる企

                                  AIは経営層のプライドをズタズタにする? AIが普及しない3つの原因
                                • 「AI倫理」をビジネスに変えるスタートアップが続々、監査を支援

                                  AI倫理への関心の高まりを受けて、AIモデルの監査を支援するスタートアップ企業が続々立ち上がっている。モデルのバイアスを検査したり、リスクを洗い出したりして「責任あるAI」の実現を支援する。 by Karen Hao2021.01.26 81 21 5 17 パリティ(Parity)の創設者でもあるラマン・チョードリーCEOは以前コンサルティング会社アクセンチュアで、「責任あるAI(Responsible AI)」の責任者として、AIモデルの理解に苦労しているクライアントを対象に「翻訳」をしていた。AIモデルが想定どおりに機能しているか確認することは難しく、企業のデータ・サイエンティストや弁護士、経営陣のそれぞれが異なる言語で会話しているような状況で、混乱していたからだ。チョードリーCEOのチームは、すべての関係者が同じ認識を共有するための仲介役を務めていた。この作業は、1つのAIモデルを

                                    「AI倫理」をビジネスに変えるスタートアップが続々、監査を支援
                                  • AIと公平性(入門編) - Qiita

                                    はじめに ABEJAのアドベントカレンダーの第・・・何番目だろ・・・?? ABEJAでは、法務担当者をやっています。 弁護士を10年ほどやっていますが、ふとしたことで機械学習の世界をやってみたくなり、独学で、数学書やPRMLや青本やカステラ本やグッドフェロー先生の本を読んだりして、数学やら機械学習理論やらPythonの勉強をしたり、OJTで学んで、3年ほどRDチームを立ち上げて、機械学習モデルの開発・実装や技術調査に携わっていました。今は、法務関係の仕事がメインです。 今日のテーマはAIと公平性です。 色々テーマはあるのですが、ABEJAの中の人のご希望により公平性にしました。 当初は他のアドベントカレンダーの記事みたいに、コードをいっぱい書いて、「公平性確保のためのいろいろな論文を実装して効果を試してみた」「公平性に関する定義について理論面を解説してみた」系の記事にしようかと思っていたの

                                      AIと公平性(入門編) - Qiita
                                    • A Visual History of Interpretation for Image Recognition

                                      Image recognition (i.e. classifying what object is shown in an image) is a core task in computer vision, as it enables various downstream applications (automatically tagging photos, assisting visually impaired people, etc.), and has become a standard task on which to benchmark machine learning (ML) algorithms. Deep learning (DL) algorithms have, over the past decade, emerged as the most competitiv

                                        A Visual History of Interpretation for Image Recognition
                                      • アカウンタビリティ(Accountability、説明責任)とは?

                                        用語「アカウンタビリティ(Accountability)」について説明。ガバナンスと倫理の観点で、AIシステムの設計/実装の情報開示から結果/決定の説明までを行い、利害関係者に納得してもらう責任を指す。簡単に言うと、「AIシステムの挙動に対して、誰が/何が、責任を持つのか」を明らかにすること。 連載目次 用語解説 AI/機械学習システムにおけるアカウンタビリティ(Accountability、「説明責任」と訳されることが一般的)とは、ガバナンス(管理体制)と倫理の観点で、AIシステムの設計から実装に至るまでの情報を利害関係者(ステークホルダー)に開示し、出力結果や決定内容を説明する責任(※法的な責任も含む)を果たし、その説明に対する理解と納得を、利害関係者から得る責務があることを指す。簡単に言うと、「AIシステムの挙動に対して、誰が/何が、責任を持つのか」を明らかにすることである(図1)。

                                          アカウンタビリティ(Accountability、説明責任)とは?
                                        • AI規制として「責任ある使用」を求める一方で技術革新を阻害する「強引な法律」の導入は避ける方針を明記した人工知能業界向けのAI白書をイギリス政府が発行

                                          イギリス政府は2023年3月29日に人工知能業界向けの勧告を発表し、AI企業が順守すべき「安全性、セキュリティと堅牢(けんろう)性」「透明性と説明可能性」「公平性」「説明責任とガバナンス」「争議可能性と是正」という5つの原則をまとめたAI白書を議会に提出しました。 A pro-innovation approach to AI regulation - GOV.UK https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper UK unveils world leading approach to innovation in first artificial intelligence white paper to turbocharge growth - GOV

                                            AI規制として「責任ある使用」を求める一方で技術革新を阻害する「強引な法律」の導入は避ける方針を明記した人工知能業界向けのAI白書をイギリス政府が発行
                                          • 【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ | Amazon Web Services

                                            Amazon Web Services ブログ 【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ アマゾン ウェブ サービス ジャパン株式会社 機械学習ソリューションアーキテクトの大渕です。AWS Japan では、AI/ML 関連情報を発信するイベント「AWS AI/ML@Tokyo」を定期的に開催しています。2020年12月17日にオンラインで開催された AWS AI/ML@Tokyo #9 では、AWS の 機械学習ソリューションアーキテクトより Amazon SageMaker を使って機械学習モデルの可視化と説明可能性を実現する方法をご紹介し、ソリューションアーキテクトより AWS の AI/ML サービスにおけるセキュリティについてご紹介しました。また、お客様活用事例として、東日本旅客鉄道株式会社様より、画像認識を活

                                              【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ | Amazon Web Services
                                            • 【AI品質・AIテストまとめ】AIシステムの品質を高めるために - Qiita

                                              はじめに ◆この記事は何? AI品質の考え方やAIテスト技法を紹介する記事 ◆対象は? AI品質・AIテストが分からない人 主にAIシステムの開発・運用担当者 ◆この記事のねらい AI品質を高める AI品質・AIテストの基本的な考え方 結論から言えば、AI品質・AIテストは従来のソフトウェア品質・テストとは異なります。 予測モデルは、出力に対する正解を定義できたとしても、予測精度には限界があります。 100%の正解率を常に求めることはできません。 このため、既知のデータを用いて、どれだけ正解や正解に近い値を求めることができたかを評価することが最も基本的な品質評価になります。 例えば、品質特性として正解率や適合率などの指標を用います。 AIテストについて、「AIソフトウェアのテスト」では次のように言及されています。 正解が分からないのですから、従来のソフトウェアテストは一切成り立ちません。

                                                【AI品質・AIテストまとめ】AIシステムの品質を高めるために - Qiita
                                              • LLMを構築する上で、ナレッジグラフ .vs. ベクトルデータベースの違いを知る|鈴木いっぺい (Ippei Suzuki)

                                                Clip source: Knowledge Graph vs. Vector Database for Grounding Your LLM グラフデータベースでLLMを構築した方が、LLMと比較して、性能、正確性、ハルシネーション防止、等の面で優れている、という記事です。実際ベンチマークをしてくれてる実例を探してみたいと思います。 Knowledge Graph vs. Vector Database for Grounding Your LLMMegan Tomlin, Director of Product Marketing, Neo4j Jul 13 4 mins read 企業は、ミッションクリティカルなアプリケーションに大規模な言語モデル(LLM)を組み込むことを望んでいます。しかし、LLMの予測不可能な性質は、幻覚(不正確な推論や明らかなエラー)を引き起こす可能性があり、

                                                  LLMを構築する上で、ナレッジグラフ .vs. ベクトルデータベースの違いを知る|鈴木いっぺい (Ippei Suzuki)
                                                • BigQuery Explainable AI now in GA to help you interpret your machine learning models | Google Cloud Blog

                                                  BigQuery Explainable AI now in GA to help you interpret your machine learning models Explainable AI (XAI) helps you understand and interpret how your machine learning models make decisions. We're excited to announce that BigQuery Explainable AI is now generally available (GA). BigQuery is the data warehouse that supports explainable AI in a most comprehensive way w.r.t both XAI methodology and mod

                                                    BigQuery Explainable AI now in GA to help you interpret your machine learning models | Google Cloud Blog
                                                  • AI実用化の鍵は「品質管理」と「倫理」、AI学会の注目トピックに

                                                    2019年6月上旬に新潟県で開催された人工知能学会全国大会で、注目を集めたトピックが2つある。「AI(人工知能)の品質管理」と「AI倫理」だ。同学会の基調講演と招待講演で重要なテーマとして取り上げたほか、両テーマに関するセッションを設けた。 両テーマはAIの社会実装を目指す上で解決すべき重要な「関門」といえる。AIを実用化するに当たり、企業は「AIを活用したシステムで安全を確保できるか」「AIが差別や偏見に根ざした判断をしないか」といった社会からの疑問への回答が求められるためだ。 AIの品質管理、議論が進む 6月5日午前に開催された企画セッション「機械学習における説明可能性・公平性・安全性への工学的取り組み」は、企業の技術者を中心に立ち見が出るほどの盛況だった。 科学技術振興機構(JST)の福島俊一氏は「(AI応用システムの開発には)新世代のソフトウエア工学が求められる」とし、JST戦略プ

                                                      AI実用化の鍵は「品質管理」と「倫理」、AI学会の注目トピックに
                                                    • 論文版はてなブックマーク(その10:ディープラーニング×株価予測)の話。 - sun_ek2の雑記。

                                                      目次。 目次。 はじめに。 An ensemble of LSTM neural networks for high-frequency stock market classification 著者・雑誌名。 内容。 Genetic Algorithm-Optimized Long Short-Term Memory Network for Stock Market Prediction 著者・雑誌名。 内容。 Financial series prediction using Attention LSTM 著者・雑誌名。 内容。 Stock Market Prediction Using Optimized Deep-ConvLSTM Model 著者・雑誌名。 内容。 NSE Stock Market Prediction Using Deep-Learning Models 著者・雑

                                                        論文版はてなブックマーク(その10:ディープラーニング×株価予測)の話。 - sun_ek2の雑記。
                                                      • コンピュータビジョンのための実践機械学習

                                                        機械学習モデルを使用して画像に関するさまざまな課題を解くための実践的な解説書。コンピュータビジョンは機械学習で最も注目度の高い分野のひとつです。本書では、機械学習エンジニアやデータサイエンティストを対象に、コンピュータビジョンに関連する機械学習の手法、アーキテクチャ、課題、運用などを網羅的に解説します。読者は、分類、物体検出、セグメンテーション、異常検知、画像生成、キャプション生成といった画像関連の問題を、機械学習で解決する方法を学びます。また、データセットの作成、前処理、モデルの設計、学習、評価、デプロイ、監視といった標準的な機械学習の運用からMLOpsまで同時にマスターできます。日本語版では、コンピュータビジョン領域でのトランスフォーマーモデルの活用や画像生成の新潮流である拡散モデルについてまとめた特別コラムを追加で収録しました。 賞賛の声 監訳者まえがき まえがき 1章 コンピュータ

                                                          コンピュータビジョンのための実践機械学習
                                                        • Meta、アマゾンを戦略的クラウドプロバイダーに選定

                                                          Metaが長期の戦略的クラウドプロバイダーにAmazon Web Services(AWS)を選択した。狙いはオンプレミスインフラの補完、および同社が進める統合と、深層学習フレームワーク「PyTorch」をめぐる戦略の仕上げだ。 この提携は、MetaとAWSの過去5年間にわたる既存の関係をさらに広げるものとなる。Metaは、オンプレミスの独自インフラの補完として、AWSのコンピューティング、ストレージ、データベース、セキュリティのサービスを使っている。しかし、2012年にMeta(当時は旧社名のFacebook)がInstagramを買収した際には、InstagramのシステムをAWSから社内インフラへと移行させている。一方で、小規模企業を傘下に組み込むタックイン買収では、Metaは複数のケースでAWSを活用してきた。 今回の提携がうまくいけば、MetaとAWSは「Amazon Elast

                                                            Meta、アマゾンを戦略的クラウドプロバイダーに選定
                                                          • 東北大学の研究グループが「AIの説明能力」を客観的に評価する方法論を構築

                                                            東北大学は2021年4月27日、同大学大学院情報科学研究科理化学研究所の研究員である塙一晃氏、助教授の横井祥氏、教授の乾健太郎氏と、大阪大学産業科学研究所の准教授である原聡氏の研究グループが、AI(人工知能)の説明能力を客観的に評価するための方法論を構築したと発表した。 「AIの判断」の根拠として過去の事例を提示 研究グループは「自動運転や機械翻訳など、機械学習手法がさまざまな分野に応用されており、その有用性が示されている。だが、機械学習で出力された判断の根拠は不明なことが多い。医療や教育の分野ではAIの判断理由が特に重要なため、AIの判断根拠を示すための研究を進めている」という。 判断の根拠を示す方法として今回発表されたのが、判断で利用した「過去の類似事例」を提示する方法だ。これは、例えば画像の鳥の種類を当てる場合、AIが判断した鳥の名前と合わせて、別のその鳥の画像を提示するといった手法

                                                              東北大学の研究グループが「AIの説明能力」を客観的に評価する方法論を構築
                                                            • 「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?

                                                              マサチューセッツ工科大学(MIT)は2022年6月1日(米国時間)、機械学習の予測を信頼するかどうか、ユーザーが判断するために用いる「説明モデル」に問題があると発表した。 機械学習の対象データとなる人々のうち、社会的に不利な立場にある人々で構成されるサブグループについては、精度が低くなる可能性があるという。 機械学習モデルは、意思決定支援に利用されることがある。例えば、「どのロースクール志願者が、司法試験に合格する可能性が高いか」をモデルが予測し、ロースクールの入試担当者がその予測結果を、(ロースクールの合格実績を高めるために)どの学生を合格させるかといった判断に役立てる場合がある。 機械学習モデルが複雑すぎて理解できない こうした機械学習モデルは多くの場合、数百万ものパラメーターを持つ。このため、モデルがどのように予測するかについては、機械学習の利用経験がない入試担当者はもとより、研究者

                                                                「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?
                                                              • AWS Well-Architected Toolを使って 機械学習のワークロードをレビューする - Qiita

                                                                要約 AWS Well-Architected - Machine Leaning Lensが2023/7に更新された Well-Architected ToolでMachine Leaning Lensが扱えるようになっていた為、手順を紹介 Machine Leaning Lensの中身も簡単に紹介 はじめに AWS Well-Architected Frameworkとは AWS Well-Architected Framework(以下、WA FW)は公式に以下の説明があります。 AWS Well-Architected は、クラウドアーキテクトがさまざまなアプリケーションやワークロード向けに高い安全性、性能、障害耐性、効率性を備えたインフラストラクチャを構築する際に役立ちます。AWS Well-Architected では、6 つの柱 (優れた運用効率、セキュリティ、信頼性、パフォ

                                                                  AWS Well-Architected Toolを使って 機械学習のワークロードをレビューする - Qiita
                                                                • Python: LIME (Local Interpretable Model Explanations) を LightGBM と使ってみる - CUBE SUGAR CONTAINER

                                                                  今回は、機械学習モデルの解釈可能性を向上させる手法のひとつである LIME (Local Interpretable Model Explanations) を LightGBM と共に使ってみる。 LIME は、大局的には非線形なモデルを、局所的に線形なモデルを使って近似することで、予測の解釈を試みる手法となっている。 今回使った環境は次のとおり。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.15.7 BuildVersion: 19H2 $ python -V Python 3.8.5 もくじ もくじ 下準備 Boston データセットを LightGBM で学習させる LIME を使って局所的な解釈を得る 参考 下準備 まずは、下準備として使うパッケージをインストールしておく。 $ pip install lime sciki

                                                                    Python: LIME (Local Interpretable Model Explanations) を LightGBM と使ってみる - CUBE SUGAR CONTAINER
                                                                  • AI Platform 上の TabNet: 高パフォーマンスで説明可能な表形式ラーニング | Google Cloud 公式ブログ

                                                                    ※この投稿は米国時間 2020 年 9 月 1 日に、Google Cloud blog に投稿されたものの抄訳です。 本日より、TabNet が Google Cloud AI Platform 上の組み込みアルゴリズムとして利用できるようになります。これにより、コードを記述せずにデータのトレーニング ジョブをより簡単に実行できる統合ツールチェーンが構築されます。 TabNet は、2 つの分野の最良の部分を組み合わせたものです。つまり、説明可能(単純なツリーベース モデルと同様)でありながら、高パフォーマンス(ディープ ニューラル ネットワークと同様)であるという利点を持ちます。したがって、クレジット スコアの予測、不正行為の検出と予測など、小売、金融、保険業界への応用に最適です。 TabNet は、シーケンシャル アテンションと呼ばれる機械学習手法を使用して、モデルの各ステップで推論

                                                                      AI Platform 上の TabNet: 高パフォーマンスで説明可能な表形式ラーニング | Google Cloud 公式ブログ
                                                                    • 【強化学習編】機械学習/ディープラーニングのおすすめ論文30選 | スキルアップAI Journal

                                                                      はじめに 今回は強化学習編として、Transformer/BERTの発展モデルや新たな学習法・正則化方法の提案に関する内容などの最新論文を7本ご紹介します!著者実装が公開されているものは、その情報も併せてまとめました。論文は自動機械学習(AutoML)を専門としICMLなどのトップカンファレンスへの論文採択経験もある斉藤と、需要予測・異常検知など様々な分野で機械学習/ディープラーニングの産業応用に取り組んできた小縣が中心となってスキルアップAI講師陣にて厳選しました。ぜひ、今後の学びにご活用ください! また、おすすめの論文30選をまとめている下記の記事も合わせてご覧ください。 CoBERL: Contrastive BERT for Reinforcement Learning 実装のURL:https://github.com/deepmind/dm_control 強化学習における新た

                                                                        【強化学習編】機械学習/ディープラーニングのおすすめ論文30選 | スキルアップAI Journal
                                                                      • GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models

                                                                        Shapash is a Python library designed to make machine learning interpretable and comprehensible for everyone. It offers various visualizations with clear and explicit labels that are easily understood by all. With Shapash, you can generate a Webapp that simplifies the comprehension of interactions between the model's features, and allows seamless navigation between local and global explainability.

                                                                          GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models
                                                                        • 日本語書記技術WG報告書(2019年3月31日付)

                                                                          慶應義塾大学SFC研究所 Advanced Publishing Laboratory 日本語書記技術WG報告書 2019年3月31日 目 次 日本語書記技術 WG の議論の概要… …………………………… 小林龍生…   5 EPUB は Web ではない…………………………………………… 村 田   真… 19 Is EPUB part of the web?… ………………………………… Florian Rivoal… 23 リフロー可能なドキュメント環境とは………………………… 木田泰夫… 29 簡便な行組版ルール(案) … ……………………………………… 小 林   敏… 35 読み効率を高める日本語電子リーダー設計の試み…………… 小林潤平… 49 組版についてのアクセシビリティ要件………………………… 村 田   真… 57 ルビの簡便な配置ルール(案) … ………………………

                                                                          • “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説

                                                                            “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説 一昔前まで、AIはフィクションの中の話だった。「2001年宇宙の旅」に登場したAI「HAL 9000」のように、人間の理解が遠く及ばない判断を実行する“人知を超えた存在”として描かれることが多かった。 しかし現在、AIは私たちの生活に浸透している。あらゆる分野でAIのビジネス活用が進む一方で、さまざまな課題も見えてきた。その一つがAIのブラックボックス化だ。AIで満足のいく結果を出力できても、「なぜその結果になったのか」「根拠はどこにあるのか」が分からない点を懸念する声がある。万が一トラブルが起きたとき、その理由を説明できないのはビジネス上のリスクだ。 「AIの創造は人類史上で最大の出来事ですが、リスク回避の方法を学ばなければ、残念ながら

                                                                              “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”(Kaggle Grandmaster)が解説
                                                                            • 可視化だけでは意味が無い、アイシン精機が「説明可能AI」の構築に挑む理由

                                                                              トヨタグループの主要部品メーカーであるアイシン精機は2019年10月、カナダの人工知能(AI)スタートアップ、エレメントAI(Element.AI)と共同開発プロジェクトを始めた。目標は、AIが自ら判断の根拠を説明する「説明可能なAI(Explainable AI)」の開発だ。 エレメントAIは起業家のジャン=フランソワ・ガニエ(Jean-Francois Gagné)氏と、AI研究の第一人者であるヨシュア・ベンジオ(Yoshua Bengio)氏がカナダのモントリオールで創業したスタートアップ企業だ。説明可能AIを研究する専門チームを有する。 アイシン精機 技術企画・統括部の名取直毅CP(Chief Project General Manager)は、エレメントAIとの協業で「2019年度には説明可能AIのPoC(概念実証)を、2020年度には本稼働を目指したい」と意気込む。 きっかけは

                                                                                可視化だけでは意味が無い、アイシン精機が「説明可能AI」の構築に挑む理由
                                                                              • 「AIによる採用面接は違法」人権団体が訴えたそのわけは(平和博) - エキスパート - Yahoo!ニュース

                                                                                「AIによる採用面接は違法」。米人権団体がそう訴え、サービスの差し止めなどを求める申し立てを行った――。 AIを使った面接システムによる人材採用が広がる。だが、カメラの向こうのAIが人間の何を見ているのか、志願者には全くわからない。 そんな中で、米人権団体「電子プライバシー情報センター(EPIC)」は米連邦取引委員会(FTC)に対し、100万件の面接を実施したという米ベンチャー「ハイアービュー」が連邦取引委員会法などに違反しているとの申し立てを行った。 その一方、学生たちの就活を指導する大学では、「AIに気に入られる面接心得」を掲示するところも出ている。 急速に進むAIによる採用業務の合理化と、「AI面接」のブラックボックス。 懸念の声を受けて、法規制の取り組みも動き出している。 ●100社が採用、100万人を面接AIの利用は採用の場面でもすでに導入が進んでいる。エントリーシートなどの書類

                                                                                  「AIによる採用面接は違法」人権団体が訴えたそのわけは(平和博) - エキスパート - Yahoo!ニュース
                                                                                • MLSE夏合宿@箱根湯本に参加したら驚きの楽しさだった - Qiita

                                                                                  MLSE夏合宿に参加してきました。 普段とは違う環境の中でどっぷり機械学習を楽しめる、素晴らしいイベントでした! この楽しさを少しでも残しておこうということで、夏合宿レポートです。 MLSE夏合宿とは? 2019年6月6,7日に開催された日本ソフトウェア科学会 機械学習工学研究会(MLSE) の 第2回機械学習工学ワークショップ(MLSE夏合宿2019)です。詳しくはConnpassを見てね。 (実行委員として当日運営もちょっぴりサポートさせていただきました~) どこでやったの? 場所は箱根湯本のColony。え、なんかもう、外観からおしゃれ。 中に入るとこんな感じで、あちこちに集まって話せる場所が準備されています。 ちなみにお部屋の様子。これは大人でもワクワクしちゃいますね。しかも室内にミーティングスペースまである。さすが研修施設。 1日目の様子 オープニング オープニングはNIIの石川

                                                                                    MLSE夏合宿@箱根湯本に参加したら驚きの楽しさだった - Qiita