はじめに 最近ついに、Google Meet に背景ぼかし機能が利用可能になりましたよね。日本語だとインプレスのケータイ Watchの記事などで紹介されてます。確か 2020 年 9 月末前後で順次リリースされていたと記憶しています。 このときは「背景ぼかし」の機能しかなかったのですが、最近(私が気づいたのは 2020/10/30)更にアップデートされました。アップデートで「背景差し替え」機能が付いて、ぼかし機能もぼかし効果が強弱 2 つから選べるようになりました。まだ日本語のニュース記事は見てないですが、Googleによるアップデートの発表はちゃんとされています。 そして、Google AI Blog でBackground Features in Google Meet, Powered by Web MLという記事が公開され、実装についての解説がされました。 この記事はその解説記事を
1.はじめに ディープラーニングを学び始めた方にとって、東京大学/松尾教授の動画を見ることは、とても刺激的で勉強になり面白いものだと思います。今回、松尾教授の講演に加えて対談やパネルディスカッションも含めた動画のリンクをまとめましたので、よろしかったら見て下さい。 おすすめは、01, 05, 14, 16, 23, 27 です。 2.動画リンク 講演には★の表示がしてあります。 □2012年 ★01.Computer will be more clever than human beings 東京大学版TEDです(もちろん日本語です)。ウェブを利用した情報の利用と人工知能の可能性についてコンパクトにまとめています。ディープラーニングには触れていませんが、若々しい松尾教授の姿が見れて、内容も興味深いです。<おすすめです。>(15分) □2013年 02.IT融合シンポジウム ~企業・研究者に
これから異常検知を勉強される初心者、中級者の方のために一問一答集を作ってみました。 実際にあった質問も含まれますが、ほとんどの質問は、私が勉強しながら疑問に思ったことです。 なお、各質問には私の失敗談を添えております。皆さんは私のような失敗をしないよう 祈っております(^^)。異常検知に特化した内容となっておりますので、ご了承ください。 初心者の方向け 勉強の仕方編 Q:異常検知を勉強したいのですが、何から手をつけて良いのか分かりません。 A:書籍を買って読むのがおススメです。 最初、私はネット情報で勉強していました。しかし、それにも限界があります。 ところが、書籍(入門 機械学習による異常検知)を買って読んだところ、かなり知識を 得ることができました。最初から、書籍を買っていれば、一年くらい得することができたのに... と思うこともあります(^^; ただ、こちらの本はディープラーニング系
Microsoftは、WindowsやMacにダウンロードして無料で使える「Lobe」を公開している。同ツールでは、ネット接続やログインもなしで機械学習トレーニングができて、利用するデータはプライベートに保たれる。 Microsoftは2018年にLobeを買収し、同ツールをブラッシュアップしてきた。今では、誰でも簡単に機械学習モデルがトレーニングできるように…とのコンセプトを体現したものになっている。写真をインポートすれば自動でトレーニングLobeのWebサイトに掲載の紹介動画を観れば、このツールのシンプルな使い勝手が認識できるだろう。ナビゲーターがPCのWebカメラで水を飲む写真を複数通り撮影。同じく水を飲んでいないシーンを撮影すると、トレーニングが自動で行われる。 ラベルを調整して、Webカメラの前で水を飲むと「水を飲む」動作が検出できるように。また、モデルの修正も簡単にできるようだ
異常検知について勉強したのでまとめておきます。 参考文献 下記文献を大いに参考にさせていただきました: [1] Ruff, Lukas, et al. "A Unifying Review of Deep and Shallow Anomaly Detection." arXiv preprint arXiv:2009.11732 (2020). [2] 井手. "入門 機械学習による異常検知―Rによる実践ガイド" コロナ社(2015) [3] 井手,杉山. "異常検知と変化検知 (機械学習プロフェッショナルシリーズ)" 講談社サイエンティフィク(2015) [4] 比戸. "異常検知入門" Jubatus Casual Talks #2(2013) [5] Pang, Guansong, et al. "Deep learning for anomaly detection: A rev
(数式を使わない) Transformer の直感的な説明 RNN の欠点 Transformer はこれをどう解決したか Transformer の動作原理 複数の要素間の関係を考慮する (Self-Attention、自己注意) 要素の順序を考慮する (Positional Encoding、位置エンコーディング) まとめ 概要: ChatGPT などで使われている Transformer モデルは、 ニューラルネットワークの世界にいくつかの革新的なアイデアをもたらした。 本記事では、プログラマに理解しやすい形でそれらのアイデアを解説する。 実際に使われている数学の詳細には触れない。 (技術的解説については元論文 Attention is All You Need か、 その注釈版である The Annotated Transformer を参照のこと。 日本語では この解説 がわかり
「Plask」は、韓国・ソウルに拠点を置く同名のソフトウェア会社が開発。現実の動きをAIが自動で取り込み、単純な操作でモーションデータを作成できることからアニメーターやゲーム開発者らを中心とした界隈で大きな注目を浴びている。 編集画面では、各ターゲットの配置やキーフレームの調整といった機能を搭載。今後は複数人での共同編集も実装する予定とのこと。データの出力は汎用フォーマットのGLB、FBX、BVH形式などに対応し、BlenderやMayaといった3DCGソフトでも扱うことができる。 (画像はYouTube「Meet Plask – Plask – AI Motion Capture and 3D Animation Tool」より)(画像はYouTube「Meet Plask – Plask – AI Motion Capture and 3D Animation Tool」より)(画像は
「Midjourney」「Stable Diffusion」など、テキスト(呪文)を入力するだけで、イメージに合った美しい絵を出力してくれるお絵かきAIが、にわかに盛り上がっている。 描き込まれた絵画調の作品や、アニメ風のイラストなどに注目が行きがちだが、他にもさまざまな可能性が広がっている。例えば、子供用の塗り絵を無限に生成する、などだ。 「Midjourney」や、その派生版「niji・journey」で、さまざまな作品を作っているブロガーのkobeniさんは、これらを使って線画の"塗り絵”をたくさん作り、記者の娘(4歳)にプレゼントしてくれた。 娘は、プリンセスの塗り絵に「かわいい」と大興奮。色鉛筆を手にとり、夢中で塗っていった。 kobeniさんによると、塗り絵を作るための"呪文”は、「線画」「色なし」「子供用の塗り絵」「白背景」「白地に黒のはっきりとした線」「細かい書き込み」 「
ゴースト・ワーク 作者:メアリー・L・グレイ,シッダールタ・スリ晶文社Amazon『ゴースト・ワーク』とまるでホラー小説のような書名だが、ノンフィクションである。「ゴースト・ワーク」とは本書の造語で、人工知能やウェブサイトの動作を支えている、見えづらい(あるいは、意図的に隠されている)裏側の人間の労働のことを指している。わかりやすい例でいえば、人工知能のモデルに学習をさせるために、猫の画像に猫のラベルを貼りつける、あるいはフェイスブックやインスタグラムやツイッターのようなSNSで、暴力的なコンテンツとAIが自動で判定したコンテンツが、本当にまずいものなのか、誤判定されたものなのかをチェックする仕事である。 GPT-3〜4の登場もあってAIの発展著しい昨今、AIは多くの人間の仕事が奪われると恐怖と共に語られることが多いが、まだまだ完全に人間の仕事を置き換えることは難しい。それは逆にいえば、「
Googleを解雇されたAI倫理研究者が指摘していた「大規模言語モデル」の危険性:Googleさん(1/2 ページ) 先週の金曜日、いつも巡回している米国のIT系メディアがいっせいに、GoogleのAI部門、Google AIのEthical Artificial Intelligence(倫理的AI)チーム共同リーダー、ティムニット・ゲブルさんがGoogleをクビになったと報じました。 ゲブルさんが2日の夜、自らのTwitterで、Googleがいきなり自分をクビにしたとツイートしたのです。 ゲブルさんは、AI研究分野では著名で尊敬されている研究者。黒人で女性。かつてMicrosoft Research在籍中、今の顔認識は学習データが白人男性の顔に偏っているので肌の色が白くないと認識率が下がるという有名な論文を共著で発表しました。著者名は覚えていなかったけれど、私もこの論文(の記事)は印
www.kamishima.net ペドロ・ドミンゴスの『The Master Algorithm』は、ビル・ゲイツが AI 分野の必読書に挙げていたので注目し、ワタシも何度か文章の中で引き合いに出している。 ユートピアのキモさと人工知能がもたらす不気味の谷 - WirelessWire News(ワイヤレスワイヤーニュース) 我々は信頼に足るアルゴリズムを見極められるのか? - WirelessWire News(ワイヤレスワイヤーニュース) そして、邦訳の刊行が期待される洋書を紹介しまくることにする(2017年版)でも取り上げているが、この原著が刊行されたのは2015年である。それから5年以上経ち、もうこれは邦訳の話は流れてしまったかと半ば諦めていたところ、『マスターアルゴリズム 世界を再構築する「究極の機械学習」』の邦題で刊行される。ワオ! マスターアルゴリズム 世界を再構築する「究
SmokingWOLF@片道勇者2開発中/ゲーム開発者 @WO_LF 「AI学習禁止」がトレンドに入っててすごい時代の風を感じる (※「自分のイラストを学習データに使わないで」という話題。個人のイラスト複数枚を入力することで画風をまねた顔イラスト画像を生成できるサービスが今日リリースされた影響) SF小説もびっくりのとんでもない世の中になってきた。 2022-08-29 22:21:26 おねねちゃん @OneneChan ぐああああッッッ!!!悪用対策ッッッ!!!!!!!転載禁止ッッッ!!!自作発言✕ッッッ!!!トレパク✕ッッッ!!!! …………AI学習禁止ッッッ!!??!?(𝗻𝗲𝘄) ギャァァァァァァァァァァァァめんどくせえ""""ぇぇえええッヅッ!!!!!!!!!!!!!!!!!!""""" pic.twitter.com/82NGOLoRTD 2022-08-29 18:5
ちょっと前に以下のようなことを放言したら、思いの外反響が多くてちょっとびっくりしたのでした。それだけ、現代のLLM chatbot / generative AIの台頭に期待と不安を抱いている人が多いということの裏返しなのでしょう。 既に色々コメントが出ているけど、我々人類が「知的労働」だと思っていることの大半が実は「過去実績をなぞって適当にその場に合わせて組み立てているだけ」なんじゃないかと訝っているので、そういう「自称知的労働」は多分LLMで代替されると思う。新奇なものを生み出す仕事は相変わらず残る https://t.co/GGK41vSDcn— TJO (@TJO_datasci) 2023年3月15日 昨年の年末振り返り記事でも話題にしたChatGPT(そして後続の各種LLM chatbot)ですが、今年に入ってからの話題の広がり方には想像を超えるものがあり、ついに朝の情報番組な
機械学習について勉強したいので調べてみたのですが、 同じ記事や同じ本をおすすめされてることが多かったので、自分なりにまとめてみました。 私は数学も機械学習も無知だし、まだ何も機械学習のコードを書いてません。 ただのリンク集になってます。 実際にやってみた画像認識の内容も含めたブログ記事はこちらです 機械学習をやるまえに 最初に機械学習で何をしたいのかを決めることが重要 ゴールを持つことが学習の進み具合を変えるらしい。 たしかに、やりたいことがあれば、勉強量も定着量も全然違う気がする。 無駄な知識を学ばないことも大切なんでしょう。 すべての理論を理解しようとしない。 機械学習は難しすぎるのでまず理解できないし、少しずつ簡単なものを実践して理解していくことが大切。 まずはコードを書く! コードを書いていけば、なぜ動くのかをおおまかに理解していける。 数式や理論の理解は後回し、慣れろ、ってことで
都内の事業会社で分析やWebマーケティングの仕事をしています。大学・大学院では経済学を通じて統計解析を行うなどしておりました。企業に勤めてからは、機械学習やテキストマイニング、クローリング技術などに関心を持っています。 Twitterアカウント Mr_Sakaue( SKUE ) GitHub 読書メーター ほしいものリスト 仕事で、いろんな会社でデータサイエンスってどう使われているのですか?と聞かれることがあり、自分としてはなんとなくしか掴めていないな、知ったかぶりしたくないなと思うところがあったので、やや手厚くリサーチをしてみようと思いました。 2022/3/6の段階では11つの市場しかないですが、最終的には30市場を目指します。 【2021/11/27追記】 公開したところ、それなりにこの記事に関心を持ってくださった方が多かったようなので、少しずつ事例を埋めていこうと思います。 業界
Stability AIは6月26日、画像生成AIの最新モデル「Stable Diffusion XL」を発表しました(「画像生成AI『Stable Diffusion』最高性能の新モデル『SDXL 0.9』一般的なPCで実行可能」)。パラメーター数がオリジナルのStable Diffusionの9億から23億へと大幅に拡大され、描写力が飛躍的に上昇したモデルです。正式版のSDXL 1.0が7月18日に公開予定とあり、あらためて注目されています。ベータ版にあたるSDXL 0.9は先行して、有料課金サービス「DreamStudio」と、Discordでの公開を開始していました。Discordでは1人無料で1回出力可能で、いまもリアルタイムで生成画像が見える状態です。その後SDXL 0.9は研究用に公開されて、ダウンロード可能になりました。 大きな違いは「2回生成する」こと SDXLがこれまで
画像生成AI「Midjourney」の開発チームが、2023年3月16日(木)に「Midjourney V5」のアルファ版をリリースしました。「Midjourney V5」では超高画質な画像生成が可能となっているだけでなく、画像生成AIの課題であった「『手』を正確に描写できない問題」が解決されたという報告も寄せられています。 Starting today our community can test Midjourney V5. It has much higher image quality, more diverse outputs, wider stylistic range, support for seamless textures, wider aspect ratios, better image prompting, wider dynamic range and more
Transformerは分散できる代償として計算量が爆発的に多いという不利がある。 一度みんなが忘れていたリカレントニューラルネットワーク(RNN)もボケーっとしている場合ではなかった。 なんと、GPT3並の性能を持つ、しかも完全にオープンな大規模言語モデルが公開されていた。 そのなもRWKV(RuwaKuvと発音しろと書いてある。ルワクフ?) RWKVはRNNなのでGPUメモリをそれほど大量に必要としない。 3GBのVRAMでも動くという。 時間がない方はビデオをご覧ください 僕の失敗は、何も考えずにgit lfs installでディレクトリごとコピーしようとしたこと。 このディレクトリには過去のモデルデータが全部あるので、ひとつ30GBのモデルデータを何十個もダウンロードしようとしていて終わらなかったのだ。 モデルデータは一とつあれば十分なのでひとつだけにする。 次に、chatのリポ
はじめまして、ティアフォー技術本部 Planning / Controlチームで開発を行っている堀部と申します。 今回は状態推定の王道技術「カルマンフィルター」が実際に自動運転で用いられるまでの道のりやノウハウなどを書いていこうと思います。 みなさんはカルマンフィルターという言葉を聞いたことがありますでしょうか。 カルマンフィルターとは「状態推定」と呼ばれる技術の一種であり、自動運転においては現在の走行状態、例えば車速や自分の位置を知るために用いられます。 非常に有名な手法で、簡単に使えて性能も高く、状態推定と言えばまずカルマンフィルターと言われるほど不動の地位を確立しており、幅広いアプリケーションで利用されています。 使い勝手に定評のあるカルマンフィルターですが、実際に自動運転のシステムとして実用レベルで動かすためには多くの地道な作業が必要になります。 この記事では、カルマンフィルターが
Stable Diffusion が公開されてからいろいろ動かして出力の傾向を見てみようとしたメモ。 やったこと 同じpromptを指定して、 縦長(512x768) 横長(768x512) 正方形(512x512) のサイズごとにそれぞれ200枚ずつ出力、それら画像の傾向を見て構図にどんな変化があるかを確認しようとした。ザッと見の印象、感触のみで評価し、定量評価はしない。 使用したプロンプト: a picture of robot and drill and girl greg manchess character concept art of an anime goddess of lust | | cute - fine - face, pretty face, realistic shaded perfect face, fine details by stanley artger
他にも「LatentMajestyDiffusion」「centipidediffusion」「latenddiffusion」「discodiffusion」「dalle2」など存在します。アルゴリズムが違うと同じ呪文でも質の違う画像が生成されるので、気が向いた人は色々と試してみることをお勧めします。 画像生成に関する基本知識画像生成に関するベーススキルは、どんなものを生成する場合でも一緒なので、上級錬金術師に学ぶのが一番早い。参考をいくつか紹介します。 大原則となる考え方を深津さんのnoteから抜粋します。 対話型のAIにとって、呪文プロンプトとは画像錬成の方向性ベクトルを定めるものにすぎない。 だからAIをよく使役するには、2つの理解「ベクトルの方向を強く適宜する力ある言葉ルーンの語彙力」と「再現性をもった呪文の組み立て」が必要になる。 深津さんのnote「魔術として理解するお絵描き
GitHub.comの利用をやめようと言われても、多くのソフトウェア開発者やGitHub.comのユーザーにとって、それはかなり困難で突拍子もない提案のように聞こえる。この便利なサービスなしには日々の生活が成り立たなくなっているユーザーは世界中にたくさんいる。 Software Freedom Conservancyは6月30日(米国時間)、「Give Up GitHub: The Time Has Come! - Conservancy Blog - Software Freedom Conservancy」において、同組織におけるGitHubの使用を中止するとともに、他のFOSSプロジェクトがGitHubからほかのサービスに移行するのを支援する長期計画を実施すると伝えた。 Software Freedom Conservancyは現在のGitHubの取り組みに疑問を呈しており、AI支援
著者のChris I.氏は、カナダ・トロントでデータサイエンティストとして活躍しています。同氏がMediumに投稿した記事『機械学習エンジニアが職を失いつつある。しかし、とにかく機械学習を学ぼう』では、北米のAI業界に関する雑感とAI業界で働き続けるための心得が書かれています。 Chris I.氏が北米のAI市場を見る限りでは、「第三次AIブーム」の熱は冷め、AI技術の研究職に関する求人は減り、AI技術者の供給が需要を上回る景気後退局面に入りました。しかし、こうした見方はAI業界の一側面を見ているに過ぎません。AI研究に対する熱は冷めたかも知れませんが、既存のAI技術を活用して解決すべき問題は、まだ無数にあるのです。このように現状を見たうえで、今後もAI業界で働くにあたっての心得を同氏は以下のように書き記しています。 問題を解決するのに、最先端のAI技術は必要ない。むしろ、既存のAI技術を
🌍 Travel around the world as we explore Machine Learning by means of world cultures 🌍 Azure Cloud Advocates at Microsoft are pleased to offer a 12-week, 26-lesson curriculum all about Machine Learning. In this curriculum, you will learn about what is sometimes called classic machine learning, using primarily Scikit-learn as a library and avoiding deep learning, which is covered in our forthcomin
またお得なAmazon Monitronスターターキットもご用意されています。 (取り付けキット、5 個のセンサー、ゲートウェイのセット) 運用費用 Amazon Monitronはセンサー1つあたり年間50USDのランニングコストがかかります。 費用例 ■要件 5つのモーターを監視する必要がある。 上記を実現するためにAmazon Monitronスターターキットを購入し、 モーターごとに1つのセンサーを取り付け3年間使用した。 ■試算結果 スターターキット購入費用(715USD)+ センサー年間利用費用×5(250USD)×3年分 = 1465USD(3年間利用費用) 注意事項 ■ Amazon Monitron 利用可能な地域について 米国、英国、およびEUのみで利用可能です。(2021/04/16時点) ■必要なモバイル端末について Android8.0以降のスマートフォンが必要で
【第40回AIセミナー】 「説明できるAI 〜AIはブラックボックスなのか?〜」 https://www.airc.aist.go.jp/seminar_detail/seminar_040.html 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演ではこれら近年の代表的な説明法について紹介する。Read less
連載目次 本連載(基礎編)の目的 スクラッチ(=他者が書いたソースコードを見たりライブラリーを使ったりせずに、何もないゼロの状態からコードを記述すること)でディープラーニングやニューラルネットワーク(DNN:Deep Neural Network、以下では「ニューラルネット」と表記)を実装して学ぶ系の書籍や動画講座、記事はたくさんあると思います。それらで学んだ際に、「誤差逆伝播」(バックプロパゲーション)のところで挫折して、そこはスルーしている人は少なくないのではないでしょうか。個々の数式や計算自体を理解していても、何となく全体像がつかめずに、 と自信を持って言えない人も多いのではないかと思います。 本連載(基礎編)はそういった人に向けた記事になります。この記事はニューラルネットの仕組みを、数学理論からではなくPythonコードから学ぶことを狙っています。「難しい高校以降の数学は苦手だけど
プログラミング関連Q&Aサイトの米Stack Overflowは12月5日(現地時間)、AIチャットボット「ChatGPT」によって生成した回答の投稿を一時的に禁止した。ChatGPTによる回答に間違っているものが多く、「ユーザーにとって実質的に有害」だとしている。 ChatGPTは、OpenAIが開発した実験的なチャットボットで、コンプリートテキストジェネレーター「GPT-3.5」に基づいている。そのデモ版が1日に無料で公開されて以来、人気が高まっている。 Stack Overflowによると、ChatGPTが生成する回答が間違っている可能性が高いにもかかわらず、一見もっともらしく見え、かつ、回答が非常に簡単に生成できることから、投稿前に回答の正しさを確認せずに投稿している人が多数いるという。 数千件にも上るこうした回答の正誤を判断するために「専門知識を持つ誰かが確認しなければならないと
PyTorch開発チームおよびオープンソースコミュニティと連携し、フレームワーク開発、MN-CoreプロセッサのPyTorchサポートなどを推進 株式会社Preferred Networks(本社:東京都千代田区、代表取締役社長:西川徹、プリファードネットワークス、以下、PFN)は、研究開発の基盤技術である深層学習フレームワークを、自社開発のChainer™から、PyTorchに順次移行します。同時に、PyTorchを開発する米FacebookおよびPyTorchの開発者コミュニティと連携し、PyTorchの開発に参加します。なお、Chainerは、本日公開されたメジャーバージョンアップとなる最新版v7をもってメンテナンスフェーズに移行します。Chainerユーザー向けには、PyTorchへの移行を支援するドキュメントおよびライブラリを提供します。 PFN 代表取締役社長 西川徹は、今回の
前回記事「Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権」は、おかげさまで沢山の方に読んで頂き、いろいろな意見や御質問や取材を頂きました。 それらの意見・御質問や取材を通じて、自分の中で新たな整理ができたので、続編の記事を書きたいと思います。 第1 どのような場合に著作権侵害になるのか みなさんの興味関心が強いトピックとして「画像自動生成AIを利用して画像を自動生成し、既存著作物の類似画像が生成された場合に著作権侵害に該当するか」があります。 前回の記事では「学習に用いられた画像と同一の画像が『偶然』自動生成された場合、著作権侵害に該当するか」について解説をしましたが、今回の記事では、もう少し多くのパターンについて検討をしたいと思います。 まず、その前提として「著作権侵害の要件」と「著作権侵害の効果」について説明をします。 この「要件」と「
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く