並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 253件

新着順 人気順

XAIの検索結果1 - 40 件 / 253件

  • ディープラーニングの研究が進めばAIのブラックボックス問題は解決しますか?

    回答 (5件中の1件目) ディープラーニングは昔ニューラルネット(神経回路網)と言われていました。 モデルとなった神経回路網において、神経の結合、処理状態がわかれば考えていることがわかるのか?と言われればそれは無理ですね。これはブラックボックスです。 じゃ、考えていることがわかるようなニューラルネットは作れるかと問われれば、できないと断言はできない。 ちなみに三十年くらい前のAIの主要トピックスは。 エキスパートシステム これは専門家の知識を記述するもので内容はわかります。 ファジーシステム どこ行ったんでしょうね? ニューラルネット でした。

      ディープラーニングの研究が進めばAIのブラックボックス問題は解決しますか?
    • Swift未経験の医師が、ChatGPTを使って30分でiOSアプリを作った話|Shohei

      株式会社Ubie、プロダクト開発スペシャリスト・医師の原瀬です。 今回は、今注目されているChatGPTを使って、ごく初歩的なiOSアプリを作ってみたので、ここにまとめてみました。ChatGPTの凄さは既に様々な場所で取り扱われていますが、百聞は一見にしかず、ということで実際に自分で触ってわかったこと、感じたことを共有したいと思います。 私自身はヘルステックベンチャーで勤務していますが、バックグラウンドは医師でコーディングやSwiftも全くの未経験です。 ちなみに、自分の経験したことをそのまま書き出したい、という気持ちがあるので、このnoteの作成には一切ChatGPTを使っていません。 なぜアプリを作ってみようと思ったのかそもそも、なぜエンジニアリソースが豊富な環境の中、自分自身でアプリを作ってみようと思ったのか。「単純な興味です」と言ってしまえばそれまでかもしれませんが、以前から感じて

        Swift未経験の医師が、ChatGPTを使って30分でiOSアプリを作った話|Shohei
      • 機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ

        ちょっと前に、しょうもないことを某所で放言したら思いの外拡散されてしまいました。 機械学習の説明可能性(解釈性)、大半のケースで求められているのは厳密な分類・回帰根拠ではなく受け手の「納得感」なので、特に実ビジネス上は説明可能性に長けたモデルを開発するより、納得できないお客さんを巧みに関係性構築した上で口八丁で完璧に説得できる凄腕営業ピープルを雇う方が重要— TJO (@TJO_datasci) 2019年11月23日 これ自体は与太話なので実際どうでも良い*1のですが、最近色々な研究や技術開発の進展はたまた実務家による考察などを見ていて、「機械学習の説明可能性(解釈性)というのは思った以上に複雑な迷宮だ」と感じることがままあったのでした。 ということで、今回の記事では僕のサーベイの範囲でザッと見て目についた資料などを超絶大雑把にリストアップした上で、主に実務における説明可能性とは何かとい

          機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ
        • 「いつの間にかアカウント変わってる」と思ったらイーロン・マスクに強奪されていたらしい

          へりおん@ランダー @xai_ 起きたらエラいことに、、、 全部はコメント追いきれないですが、ありがとうございます! さらっと読んで気になってそうな点は ・コンタクトは特になかったっす。 ・従ってお金やグッズはもらってないっす。 てとこですかね。 なにか動きあったらお知らせしますね。 2023-07-27 09:55:27

            「いつの間にかアカウント変わってる」と思ったらイーロン・マスクに強奪されていたらしい
          • 機械学習モデルの判断根拠の説明(Ver.2)

            【第40回AIセミナー】 「説明できるAI 〜AIはブラックボックスなのか?〜」 https://www.airc.aist.go.jp/seminar_detail/seminar_040.html 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演ではこれら近年の代表的な説明法について紹介する。

              機械学習モデルの判断根拠の説明(Ver.2)
            • 2023年冬開始の新作アニメ一覧

              放送・配信中のアニメの終わりが近づき、新作の開始時期が近づいてきました。2022年の年末から2023年の年始を中心とした時期に始まるアニメの数は60本以上、配信限定作品や配信作品の地上波初放送を合わせると70本に近い本数で、これまで以上に取捨選択が大変です。 この多数の中で、漫画や小説などが原作ではなく続編ものでもない新規のオリジナルアニメは、P.A.WORKSの手がけるバディもの「Buddy Daddies」、河本ほむら&武野光&トムス・エンタテインメントによる「HIGH CARD」、DMM.comと旭プロダクションによる「アルスの巨獣」、太田垣康男の描き下ろしを原作とする「MAKE MY DAY」、ゲーム実況者・キヨが自らの役を演じる「きよねこっ」、ミュージカルとのメディアミックスプロジェクト「「FLAGLIA」~なつやすみの物語~」や、ソニーミュージックによるアイドルプロジェクトのア

                2023年冬開始の新作アニメ一覧
              • AIプロジェクトにおける説明可能性の方針 - techtekt

                こんにちは。デジタルテクノロジー統括部でアナリストをしているY・Nです。 パーソルキャリアのデジタルテクノロジー統括部は、一般社団法人データサイエンティスト協会が定める「データサイエンティストに求められるスキルセット」を基に、以下の3つのグループが組織されています。 ビジネスグループ アナリティクスグループ エンジニアグループ 出典:データサイエンティスト協会 これらの3グループが互いに連携しあい、AI(ここでは機械学習による予測モデルを指すことにします)によって様々な業務を自動化させたり、意思決定の補助に利用させるプロジェクトに取り組んでいます。 その際、「AIの判断根拠をどの程度(どの様に)見せれば良いか」ということが常にビジネスグループで議題に上がります。殊にAIの予測結果を人間(特に営業部門の人)が見た上で意思決定の補助として利用する場合に顕著で、判断根拠が表示されないブラックボッ

                  AIプロジェクトにおける説明可能性の方針 - techtekt
                • 達人出版会

                  探検! Python Flask Robert Picard, 濱野 司(訳) BareMetalで遊ぶ Raspberry Pi 西永俊文 なるほどUnixプロセス ― Rubyで学ぶUnixの基礎 Jesse Storimer, 島田浩二(翻訳), 角谷信太郎(翻訳) 知る、読む、使う! オープンソースライセンス 可知豊 きつねさんでもわかるLLVM 柏木餅子, 風薬 R/RStudioでやさしく学ぶプログラミングとデータ分析 掌田津耶乃 データサイエンティストのための特徴量エンジニアリング Soledad Galli(著), 松田晃一(訳) 実践力をアップする Pythonによるアルゴリズムの教科書 クジラ飛行机 スッキリわかるサーブレット&JSP入門 第4版 国本 大悟(著), 株式会社フレアリンク(監修) 徹底攻略 基本情報技術者教科書 令和6年度 株式会社わくわくスタディワール

                    達人出版会
                  • 因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 | 株式会社ARISE analytics(アライズ アナリティクス)

                    Tweet 因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 はじめに ARISE analytics の近藤です。本記事では、次世代の意思決定技術として注目されている反実仮想機械学習(Counterfactual Machine Learning:CFML)を紹介します。 本記事は、CFMLを日本語で体系的に整理し、初学者の理解を手助けすることをねらいとして執筆しました。本記事の理解促進につながるように、ベースとなった勉強会資料を記載します。こちらも併せて閲覧いただくことで理解の助けになれば幸いです。 目次 ・ はじめに ・ Counterfactual Machine Learning(CFML) ・ Off-Policy Evaluation(OPE) ・ CFMLを支える技術(オープンデータとツー

                      因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 | 株式会社ARISE analytics(アライズ アナリティクス)
                    • 無料、独学で機械学習エンジニアになる!~機械学習が学べる無料サイト、書籍~ - Qiita

                      こんにちはkamikawaです 今回は無料で利用できる機械学習、データサイエンスに関するサイトや書籍をまとめました 私自身も機械学習プロジェクトに関わった経験があるのですが、ここに載せたサイトや資料を勉強に使っていました 機械学習エンジニアを目指す人必見です 入門者レベル〜応用・発展レベルまで幅広く載せていますレベルは個人の見解です。(あくまでも参考程度に) 日本語のものと英語のものを紹介します 海外の大学の講義もあるので英語の勉強にも使えます 海外でのキャリアを考えている方も必見です 対象読者 機械学習を学びたいけどお金をかけたくない人 独学で機械学習を身につけたい人 機械学習エンジニアになりたい人 発展的な機械学習を学びたい人 日本語 Python 三重大学奥村教授のサイト 機械学習、様々な分析、スクレイピング、データ可視化、地図データ、CV、統計など幅広い分野を扱っている R編もある

                        無料、独学で機械学習エンジニアになる!~機械学習が学べる無料サイト、書籍~ - Qiita
                      • マスク氏、xAI紹介スペースで「TwitterのデータをLLMトレーニングに使う」などの発言

                        イーロン・マスク氏は7月14日(米国時間)、12日に予告した新企業xAIに関するスペースを予定より少し遅れて開催した。4万人以上がリアルタイムで参加し、マスク氏の伝記を執筆中のウォルター・アイザックソン氏やキム・ドットコム氏なども質問した。 マスク氏は、xAIの目標は複雑な科学や数学の問題を解明し、宇宙を理解するのに役立つ“スーパーインテリジェントAI”を構築することだと語った。そうしたAIは2029年までに登場すると予想するのが現実的だという。xAI立ち上げメンバーらは、社会に利益をもたらす「人間より賢いAI」を構築したいと語った。 マスク氏はまた、将来的にはOpenAIやGoogleなどに代わるAI企業になるが、xAIはまだ初期段階であり、競合に追いつくには時間が必要だとも語った。 途中、異星人が見つからないのはなぜかについての「フェルミのパラドックス」について熱く語る場面もあった。ま

                          マスク氏、xAI紹介スペースで「TwitterのデータをLLMトレーニングに使う」などの発言
                        • X(旧Twitter)、ユーザーの公開データをAIトレーニングに使うと改定ポリシーに明記

                          米X(旧Twitter)が9月29日に発効させするプライバシーポリシーの改定で、公開データをAIのトレーニングに使うことを新たに追加していたことが明らかになった。米IT系ブログStackdiaryが9月1日に指摘した。 日本語版では、「本ポリシーで概説されている目的のため、当社が収集した情報や一般公開された情報を、機械学習または人工知能モデルのトレーニングに使用することがあります。」となっている。 この件について、XのオーナーでCTO(最高技術責任者)のイーロン・マスク氏は「(トレーニングに使うのは)公開データだけで、DMやプライベートなものは対象外だ」とポストした。 マスク氏は7月、“スーパーインテリジェントAI”構築を目指して立ち上げる新企業xAIで、xAIのAIモデルのトレーニングに、Twitterの公開データを利用すると明言している。xAIのWebサイトには、「当社はX Corpと

                            X(旧Twitter)、ユーザーの公開データをAIトレーニングに使うと改定ポリシーに明記
                          • 崎陽軒のシウマイ弁当の食べ合わせをゲノム解析&社長に取材した同人誌がある #C100

                            食べ方学会@4/27おもバザ秋葉原、4/28ニコ超 @tabekatagakkai 同人誌「食べ方図説 崎陽軒シウマイ弁当編1~4巻」「崎陽軒シウマイ弁当 ゲノム解読完全データ」「食べ方図説たまごサンド編、カツカレー編、コリラックまん編」「回転寿司xAI味覚判定 一番旨い寿司は何なのか?」「ベトナム ココナッツ教団の島ファンブック」 委託通販https://t.co/O0SLW4BWZu

                              崎陽軒のシウマイ弁当の食べ合わせをゲノム解析&社長に取材した同人誌がある #C100
                            • 達人出版会

                              探検! Python Flask Robert Picard, 濱野 司(訳) BareMetalで遊ぶ Raspberry Pi 西永俊文 なるほどUnixプロセス ― Rubyで学ぶUnixの基礎 Jesse Storimer, 島田浩二(翻訳), 角谷信太郎(翻訳) 知る、読む、使う! オープンソースライセンス 可知豊 きつねさんでもわかるLLVM 柏木餅子, 風薬 デザインディレクション・ブック 橋本 陽夫 現場のプロがやさしく書いたWebサイトの分析・改善の教科書【改訂3版 GA4対応】 小川 卓 解釈可能なAI Ajay Thampi(著), 松田晃一(翻訳) PowerPoint 目指せ達人 基本&活用術 Office 2021 & Microsoft 365対応 PowerPoint基本&活用術編集部 ランサムウェア対策 実践ガイド 田中啓介, 山重徹 TODによるサステナ

                                達人出版会
                              • 企業で働くデータサイエンティストになって10年が経ちました - 渋谷駅前で働くデータサイエンティストのブログ

                                TL;DR 10年前の落ちこぼれポスドクが今は立派なデータサイエンティストになれたっぽいので、ポエムを書きました。業界事情の振り返りと、仕事の話、知名度が上がることの良し悪し、キャリアの話などを綴っています。 時が経つのは早いもので、落ちこぼれポスドクだった僕が企業転職をし、データサイエンティストになって今日で10年が経ちました。自分の中ではデータサイエンティストに転じたのはついこの前のことのように思える一方で、あまりにも多くの様々な体験をしてきたせいか「もっと時間が経っている気がするのにまだ10年しか経っていないのか」という気もしています。 今でも時々SNSで話題に上る回顧録を書いたのが3年前のことなんですが、それ以降は相変わらず同じく現職に留まり続けていることもあり、有体に言えばそれほど大きく変わったことはありません。なので、新たに3年間の振り返りを書くのではなく、回顧録で書き漏らした

                                  企業で働くデータサイエンティストになって10年が経ちました - 渋谷駅前で働くデータサイエンティストのブログ
                                • 因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 | 株式会社ARISE analytics(アライズ アナリティクス)

                                  Tweet 因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 はじめに ARISE analytics の近藤です。本記事では、次世代の意思決定技術として注目されている反実仮想機械学習(Counterfactual Machine Learning:CFML)を紹介します。 本記事は、CFMLを日本語で体系的に整理し、初学者の理解を手助けすることをねらいとして執筆しました。本記事の理解促進につながるように、ベースとなった勉強会資料を記載します。こちらも併せて閲覧いただくことで理解の助けになれば幸いです。 目次 ・ はじめに ・ Counterfactual Machine Learning(CFML) ・ Off-Policy Evaluation(OPE) ・ CFMLを支える技術(オープンデータとツー

                                    因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 | 株式会社ARISE analytics(アライズ アナリティクス)
                                  • 最近噂のノーコードAIモデル開発ツール Node-AIで時系列データの因果分析・重要度可視化・要因分析をしてみた - NTT Communications Engineers' Blog

                                    はじめに こんにちは。イノベーションセンター、テクノロジー部門、データ分析コンサルティングPJの更科です。 この記事では、2022年12月08日にβ版フリートライアルキャンペーンが始まったNode-AIで時系列データの因果分析・重要度可視化・要因分析などをしてみようと思います。 Node-AIは時系列データの分析をするNTT Communicationsの内製開発サービスで、製造業を中心に様々な領域で活用されています。Node-AIについて詳しくは「ノーコードAIモデル開発ツール Node-AI」や「ノーコードAI開発ツールNode-AIの紹介」をご覧ください。 読んでほしい人 ノーコード(ローコード)AI開発ツールに興味がある人 時系列データの可視化に興味がある人 因果分析、特徴量重要度、要因分析に興味がある人 伝えたいこと Node-AIを使ってデータの様々な情報を可視化できる! No

                                      最近噂のノーコードAIモデル開発ツール Node-AIで時系列データの因果分析・重要度可視化・要因分析をしてみた - NTT Communications Engineers' Blog
                                    • 意思決定の理由の可視化が可能なグラフ構造の学習アルゴリズムの紹介 - ZOZO TECH BLOG

                                      ZOZO研究所の清水です。弊社の社会人ドクター制度を活用しながら、「社内外に蓄積されているデータからビジネスへの活用が可能な知見を獲得するための技術」の研究開発に取り組んでいます。 弊社の社会人ドクター制度に関しては、以下の記事をご覧ください。 technote.zozo.com 私が現在取り組んでいるテーマの1つに、「機械学習が導き出した意思決定の理由の可視化」があります。この分野は「Explainable Artificial Intelligence(XAI)」と呼ばれ、近年注目を集めています。 図.XAIに関連する文献数の推移(引用:https://arxiv.org/abs/1910.10045) その中でも今回はユーザに対するアイテムの推薦問題に焦点を当て、「なぜこのユーザに対して、このアイテムが推薦されたのか?」という推薦理由の可視化が可能なモデルを紹介します。 本記事の概要

                                        意思決定の理由の可視化が可能なグラフ構造の学習アルゴリズムの紹介 - ZOZO TECH BLOG
                                      • 【AI最新論文】2022年に読むべき「機械学習/ディープラーニングの最新論文」30選 - Qiita

                                        <目次> はじめに 第1回:コンピュータビジョン編 第2回:自然言語処理編 第3回:強化学習編 第4回:実務応用編 次回予告 1. はじめに GAN(敵対的生成ネットワーク)講座 現場で使える XAI(Explainable AI)講座 現場で使える自然言語処理実践講座 ディープラーニング最新論文対策講座 スキルアップAIでは、上記の4講座を始めとして、現在、そしてこれから注目されるであろう最先端の機械学習/ディープラーニング技術に関する講座を開講しております。このような講座を開講していく中で、スキルアップAIの講師陣が注目している最先端技術をぜひ知りたいというお声を多くいただきました。 そこで、自動機械学習(AutoML)を専門としICMLなどのトップカンファレンスへの論文採択経験もある斉藤と、需要予測・異常検知など様々な分野で機械学習/ディープラーニングの産業応用に取り組んできた小縣が

                                          【AI最新論文】2022年に読むべき「機械学習/ディープラーニングの最新論文」30選 - Qiita
                                        • ノーコードAI開発ツールNode-AIの紹介 - NTT Communications Engineers' Blog

                                          はじめに 初めまして!イノベーションセンターでノーコードAI開発ツール「Node-AI」のプロダクトオーナーやXAI・因果分析の研究をしております、切通恵介(@kirikei)です。 Node-AIは2021年10月11日にリリースされたNTT Communicationsの内製開発サービスで、その名の通りブラウザ上からノーコードでAIモデルを開発できるサービスで、製造業のお客様を中心に異常検知やプラント運転支援などの様々な領域で活用されています。(ニュースリリースはこちらやこちらやこちら) いつもはサービスの営業的な紹介をすることが多いのですが、今回はEngineer's Blogでの執筆ということで、エンジニアの方向けの技術、プロダクトマネジメント、チームビルディング、スクラムなどの様々な観点でお伝えできればと考えています。とはいえ、Node-AIに関しては詳細に書きたいことが山ほどあ

                                            ノーコードAI開発ツールNode-AIの紹介 - NTT Communications Engineers' Blog
                                          • グーグル「Explainable AI」発表--機械学習モデルが結論を得るプロセスの透明性向上へ

                                            ほとんどの人が何らかのアルゴリズムに日々接している一方、人工知能(AI)がどのように機能するのか、実際に理解していると自信を持って言える人はそれほど多くない。しかし、Googleが英国で現地時間11月20日から開催している「Google Cloud Next '19 UK」で発表した新たなツールは、一般の人々が機械学習(ML)の難解さをひもとくうえで力となるはずだ。 「Explainable AI」(説明可能なAI)と呼ばれるこのツールは、MLモデルが思考を重ねる手法と、結論に至った理由をユーザーに説明するという、その名が示す通りの機能を有している。 Explainable AIは、そういった機能を実現するために、データセット内の各特徴がアルゴリズムの導き出した結果にどの程度の影響を与えたのかを定量化する。つまり、それぞれのデータ係数には、MLモデルにどの程度影響を与えたのかを示すスコアが

                                              グーグル「Explainable AI」発表--機械学習モデルが結論を得るプロセスの透明性向上へ
                                            • TwitterはXに──ヤッカリーノCEOもツイート

                                              XおよびTwitterのオーナー、イーロン・マスク氏が土曜の夜にツイートしたTwitterブランドのXへの変更は、どうやら実行されるようだ。 Twitterを運営する米XのCEO、リンダ・ヤッカリーノ氏は米国時間の7月23日日曜日の午後1時過ぎ、「イーロンと私はXを世界に届けることを楽しみにしている」とツイートした。 「Xは、すべてを提供できるプラットフォームになる」とも説明した。マスク氏はTwitterの買収完了時に「Twitter買収はすべてのアプリであるXの構築を更新するものだ」とツイートしている。 米New York Timesなどによると、マスク氏は日曜早朝にTwitterの従業員宛メールで「われわれは確実にXに移行しつつある。これがTwitterのメールアカウントからの最後のメッセージだ」と伝えたという。 マスク氏は、twitter.comをx.comに移行するともツイートした

                                                TwitterはXに──ヤッカリーノCEOもツイート
                                              • TechCrunch

                                                xAI, Elon Musk’s 10-month-old competitor to the AI phenom OpenAI, is raising $6 billion on a pre-money valuation of $18 billion, according to one trusted source close to the deal. The deal – which

                                                  TechCrunch
                                                • 達人出版会

                                                  探検! Python Flask Robert Picard, 濱野 司(訳) BareMetalで遊ぶ Raspberry Pi 西永俊文 なるほどUnixプロセス ― Rubyで学ぶUnixの基礎 Jesse Storimer, 島田浩二(翻訳), 角谷信太郎(翻訳) 知る、読む、使う! オープンソースライセンス 可知豊 きつねさんでもわかるLLVM 柏木餅子, 風薬 R/RStudioでやさしく学ぶプログラミングとデータ分析 掌田津耶乃 データサイエンティストのための特徴量エンジニアリング Soledad Galli(著), 松田晃一(訳) 実践力をアップする Pythonによるアルゴリズムの教科書 クジラ飛行机 スッキリわかるサーブレット&JSP入門 第4版 国本 大悟(著), 株式会社フレアリンク(監修) 徹底攻略 基本情報技術者教科書 令和6年度 株式会社わくわくスタディワール

                                                    達人出版会
                                                  • 【強化学習編】2022年に読むべき「機械学習/ディープラーニングの最新論文」30選 - Qiita

                                                    はじめに 今回は強化学習編として、Transformer/BERTの発展モデルや新たな学習法・正則化方法の提案に関する内容などの最新論文を7本ご紹介します!著者実装が公開されているものは、その情報も併せてまとめました。論文は自動機械学習(AutoML)を専門としICMLなどのトップカンファレンスへの論文採択経験もある斉藤と、需要予測・異常検知など様々な分野で機械学習/ディープラーニングの産業応用に取り組んできた小縣が中心となってスキルアップAI講師陣にて厳選しました。ぜひ、今後の学びにご活用ください! CoBERL: Contrastive BERT for Reinforcement Learning 実装のURL:https://github.com/deepmind/dm_control 強化学習における新たなエージェント「Contrastive BERT for Reinforce

                                                      【強化学習編】2022年に読むべき「機械学習/ディープラーニングの最新論文」30選 - Qiita
                                                    • コンピュータビジョン(CV)の動向 2021 | gihyo.jp

                                                      はじめに 国立研究開発法人 産業技術総合研究所の人工知能研究センターに所属している、片岡裕雄と申します。研究者としてコンピュータビジョン(CV)やパターン認識に関する研究を行う一方で、研究コミュニティcvpaper.challengeを主宰して「CV分野の今を映し、トレンドを創り出す」ことにも挑戦しています。cvpaper.challengeには最新動向の日本語サーベイ資料や研究メンバーによる研究成果も載せています。今回の記事に書ききれない、より詳細な情報はぜひそちらをご覧ください。 今回の記事については、出身大学の大先輩・皆川卓也氏から話を受けて実現しました。皆川氏は2010年にコンピュータビジョンの業界動向を寄稿されているのですが、今回恐れ多くもその企画を受け継ぐことになりました。 それから11年、深層学習の隆盛とともに発展してきたCV分野の動向を述べるにはあまりにも紙面が限られていま

                                                        コンピュータビジョン(CV)の動向 2021 | gihyo.jp
                                                      • TechCrunch

                                                        xAI, Elon Musk’s 10-month-old competitor to the AI phenom OpenAI, is raising $6 billion on a pre-money valuation of $18 billion, according to one trusted source close to the deal. The deal – which

                                                          TechCrunch
                                                        • 2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」

                                                          オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models

                                                            2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜」
                                                          • xAI、“全人類に利益をもたらすAIツール”を目指す「Grok」正式発表

                                                            イーロン・マスク氏が7月に立ち上げたAI企業xAIは、同社初のAIモデル「Grok」を発表した。まだ初期β段階だが、ベンチマークでは「ChatGPT-3.5」や「Inflection-1」を上回るとしている。 イーロン・マスク氏率いる米AI企業xAIは11月4日(現地時間)、同社初のAIモデル「Grok」を発表した。マスク氏はそれに先立ち、GrokをXのハイエンドサブスクプランユーザーに提供する計画だとポスト済みだ。 xAIは企業サイトのトップページで「Grokは、『銀河ヒッチハイク・ガイド』をモデルにしたAIで、ほぼすべてのことに答えることを目的としており、質問すべきことを提案することさえできる」「ウィットに富んだ質問に答えるよう設計されており、反抗的な性格でもあるので、ユーモアが嫌いであれば使わないように」と説明している。 xAIは、全人類に利益をもたらすAIツールを構築するためにフィ

                                                              xAI、“全人類に利益をもたらすAIツール”を目指す「Grok」正式発表
                                                            • 機械学習における解釈性について | メルカリエンジニアリング

                                                              こんにちは。Merpay Advent Calendar 2019 の24日目は、メルペイ Machine Learning チームの @yuhi が機械学習における解釈性についてお送りします。 目次 機械学習における解釈性とは なぜ解釈性が必要なのか 1. サービスを提供する事業者としての説明責任 2. 推論結果に対する社内外の関係者の理解 3. モデルのデバッグ、精度改善 どのようなアプローチがあるのか SHAPについて サマリ 基本的なアイディア 問題設定 説明可能モデルに対して満たしてほしい性質 説明可能モデルを求める SHAPの実装について 最後に References 機械学習における解釈性とは 深層学習をはじめとする機械学習分野の発展に伴って、これまでにないユニークなサービスが開発され、また多くの業界において業務が効率化、高度化されつつあります。メルペイでも機械学習を用いて、

                                                                機械学習における解釈性について | メルカリエンジニアリング
                                                              • ヒアリ判定サービスをAutoMLで作ってみた - Qiita

                                                                TL; DR 東京のふ頭でヒアリの女王アリ50匹以上確認され、広範囲に分散すると国内に定着するおそれがあると環境省が言っているらしい[1]が、アリを見て、ヒアリかそうでないかなど一般人にわかるはずもない そこで、一般人でもアリを見てヒアリか判断できるように、AutoMLなるナウい機械学習技術を使い、写真からヒアリかどうか判別できるサービス(外部)を作った。 本記事ではAutoMLの技術的詳細ではなく、ビジネスで大切とされる、AutoMLを使ったサービスの作り方を説明することを目的とする。また、 実際にサービスの作成や運用にかかったコストを説明 することも目的とする。 想定している読者層 サービス企画職、サービス開発職、それらの卵である学生の人たち はじめに 断り書きとして、ヒアリのようなアリをみつけた場合は、下記にある環境省のサイトを御覧ください。 特定外来生物ヒアリに関する情報(外部)

                                                                  ヒアリ判定サービスをAutoMLで作ってみた - Qiita
                                                                • TechCrunch

                                                                  xAI, Elon Musk’s 10-month-old competitor to the AI phenom OpenAI, is raising $6 billion on a pre-money valuation of $18 billion, according to one trusted source close to the deal. The deal – which

                                                                    TechCrunch
                                                                  • 【記事更新】私のブックマーク「説明可能AI」(Explainable AI) – 人工知能学会 (The Japanese Society for Artificial Intelligence)

                                                                    説明可能AI(Explainable AI) 原 聡(大阪大学産業科学研究所) はじめに 2018年に本誌5 月号(Vol. 33, No. 3, pp. 366-369)の”私のブックマーク”に「機械学習における解釈性」という記事を書いた。前記事の執筆から1年が経ち、機械学習モデルの解釈・説明技術を取り巻く社会的な情勢の変化や新たな研究の発展など、数多くの進展があった。本記事はこれら近年の変化・進展についてまとめた、上記の”私のブックマーク”の続編である。本記事を読む前に、まずは上記の前記事をご一読いただきたい。 用語について 本記事では、機械学習モデルの出力に加えて、その出力を補助する追加の情報(モデルの解釈、判断根拠の説明、など)を出力する技術一般および研究分野全体を指す用語としてXAI(Explainable AI, 説明可能AI)を用いる。XAIはアメリカの国防高等研究計画局(D

                                                                    • イーロン・マスク氏のxAI、LLM「Grok-1」をオープンに

                                                                      イーロン・マスク氏が昨年7月に立ち上げたAI企業xAIは3月17日(日曜日)、同社のLLM「Grok-1」の基本モデルの重みとアーキテクチャをリリースすると発表した。GitHubで、Apache 2ライセンスで配布されている。 Grok-1は、同社が昨年11月に発表したチャットbot「Grok」のベースとなるLLM。マスク氏がオーナーである米Xの「Xプレミアムプラス」のユーザーは、Grokと会話できている。 xAIは「3140億パラメータのMixture-of-Experts(MoE)」モデルと説明しているが、トレーニングデータについては「特定のタスク用に微調整されていない大量のテキストデータ」としか開示していない。ちなみに、Grok-1と競合する米OpenAIの「GPT-3」のパラメータ数は約1750億で、「GPT-4」については公表されていない。 マスク氏は2月、OpenAIを“契約違

                                                                        イーロン・マスク氏のxAI、LLM「Grok-1」をオープンに
                                                                      • X(旧Twitter)、休眠ハンドル名を5万ドルで販売する計画か──Forbes報道

                                                                        X(旧Twitter)が、休眠アカウントからハンドル名を高額で販売する計画だとForbesが報じた。同メディアが入手したというメールによると、ハンドル名は一律5万ドルという。 米Xは休眠アカウントから回収したハンドル名を販売するマーケットプレイスを計画中だと、米Forbesが11月3日(現地時間)、独自に入手したメールに基づいて報じた。 ユーザーが匿名で提供したこのメールは購入を勧誘するもので、ハンドル名提供の手数料は一律5万ドル(約750万円)となっているという。 XのオーナーでCTO(最高技術責任者)を務めるイーロン・マスク氏は5月、X(当時はTwitter)が休眠アカウントのパージ中とツイートし、パージしたアカウントのハンドル名を他のユーザーが使えるようにすると説明した。 Xはユーザーポリシーを変更しており、アカウントをアクティブに保つには、少なくとも30日ごとにログインする必要(日

                                                                          X(旧Twitter)、休眠ハンドル名を5万ドルで販売する計画か──Forbes報道
                                                                        • AIはレントゲン写真から人種を90%の確率で見分けられる、ただし見分け方は不明

                                                                          人間の医師にとって、肌の色などがわからないレントゲン写真から患者の人種を見分けることは困難ですが、新たに医学誌のThe Lancet Digital Healthに発表された論文で、「AIは胸部X線画像から人種を90%の精度で見分けられる」ことが示されました。研究者らはAIが人種を見分ける方法についても調べましたが、今のところAIがどうやって人種を判別しているのかは不明とのことです。 AI recognition of patient race in medical imaging: a modelling study - The Lancet Digital Health https://www.thelancet.com/journals/landig/article/PIIS2589-7500(22)00063-2/fulltext MIT, Harvard scientists f

                                                                            AIはレントゲン写真から人種を90%の確率で見分けられる、ただし見分け方は不明
                                                                          • Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog

                                                                            長期インターン生の木村です。 今回、以前から興味を持っていた画像認識モデルにおける説明可能なAIのクラス活性化マッピング手法を調査してみました。 説明可能なAIとは 近年、深層学習ベースの画像認識モデルは製造業、医療、自動運転など至る場面で社会実装が進められていますが、ディープなラーニングを行っているだけに推論の判断根拠を人間が解釈できない問題があります。医療、自動運転のような命に関わる領域では安全性や公平性を担保できないために安心して導入できません。 このような問題を解決するのが「説明可能なAI(XAI)」です。 「説明可能なAI(XAI)」は、AIの推論結果を人間が解釈可能な形で出力する技術を指します。例えば、犬と猫が映っている画像を画像分類するAIが犬と推論した場合、モデルがどこを判断根拠としているかをヒートマップで可視化します。このヒートマップは、「顕著性マップ」と呼ばれます。 画

                                                                              Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog
                                                                            • 人類の抱える2大課題、、実魂電才(物魂電才2) - ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing

                                                                              出雲・稲佐の浜(令和5年 神在月) Inasa-no Hama (Inasa Beach) in Izumo, Japan during Kami Ari Zuki (The Month of the Gods' Presence) in 2023. 1.4/50 Summilux ASPH, LEICA M (Typ 240) もうかれこれ4~5か月前、旧知である新メディア"Pivot"の佐々木紀彦さんと竹下隆一郎さんから熱烈なご相談があり、9 quesitonsという番組に出たことがあった。70分1本勝負で一気に収録したが、そこで僕が言ったことの一つは「みんなAIの話ばかりをしすぎている。人類にとって大きな2つの課題があり、それをこそ解決すべきであり、AIだとかデータはそのためのツールとして使うべきだ」という話だった*1。 - その二つの課題とは「人類と地球との共存」と「人口調整局面の

                                                                                人類の抱える2大課題、、実魂電才(物魂電才2) - ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing
                                                                              • OpenAIのリリースから考える、2024年に起こるであろう3つのこと - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                                                                                OpenAI DevDay 2023 の冒頭で基調講演する共同創業者でCEOのサム・アルトマン氏 Image credit: OpenAI OpenAIの開発者会議「Dev Day」での最新リリースで、カスタムが可能になったGPTs、新しいGPT-4 Turbo、アシスタントAPIが発表された。もちろん、私のようなAI全般のオブザーバーは先週の津波のようなAIの発表に疲れ果てている。 ホワイトハウスのAI大統領令、G7の自主行動規範、英国の安全サミット、AIの「ゴッドファーザー」たちによるXリスク論争の激化、著名なAI著作権裁判の縮小判決、そしてMidjourney、Runway、Stability AIからの最新情報があった。 まだある。Scarlett Johannson氏がAIアプリに法的措置を取ったし、Googleが広告主の商品画像にGenAIツールを導入、 AMDがAIチップの販

                                                                                  OpenAIのリリースから考える、2024年に起こるであろう3つのこと - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                                                                                • TechCrunch

                                                                                  Welcome to Startups Weekly — Haje’s weekly recap of everything you can’t miss from the world of startups. Sign up here to get it in your inbox every Friday. Musk’s 10-month-old baby, xAI, is c

                                                                                    TechCrunch