並び順

ブックマーク数

期間指定

  • から
  • まで

401 - 440 件 / 2229件

新着順 人気順

ディープラーニングの検索結果401 - 440 件 / 2229件

  • Googleの「TensorFLow」を子供が手軽に使えるツール ~AIを体感!画像を機械学習させてみよう<前編>【どれ使う?プログラミング教育ツール】

      Googleの「TensorFLow」を子供が手軽に使えるツール ~AIを体感!画像を機械学習させてみよう<前編>【どれ使う?プログラミング教育ツール】
    • 松尾豊氏が監修した無料AI講座「AI For Everyone」開講、Courseraで60万人以上受講する講座が日本版に | Ledge.ai

      TOP > Topic Keywords > JDLA DL for DX > 松尾豊氏が監修した無料AI講座「AI For Everyone」開講、Courseraで60万人以上受講する講座が日本版に 一般社団法人日本ディープラーニング協会(JDLA)は5月6日、新講座「AI For Everyone(すべての人のためのAIリテラシー講座)」を開講した。受講料は無料。ただし、受講修了証の発行を希望する場合はオンライン講座プラットフォーム「Coursera(コーセラ)」に49ドルの支払いが発生する。 JDLAは本講座を「すべてのビジネスパーソンに向けた、人工知能(AI)/ディープラーニングについてまず『知る』ための無料エントリー講座」と位置づける。AIの基礎を学びたい人、今の組織をAIが使いこなせる組織に変えたい人など、理系文系はもちろん、肩書きや職種問わず、受講できるとしている。 本講座

        松尾豊氏が監修した無料AI講座「AI For Everyone」開講、Courseraで60万人以上受講する講座が日本版に | Ledge.ai
      • 「AI 画伯」を 100 万人に届けた開発者と Google Cloud | Google Cloud Blog

        編集部注: この投稿は、開発者のさとさん(@sato_neet)へのインタビューをもとに、Google Cloud デベロッパーアドボケイトの佐藤一憲が執筆したものです。名前が似ていますが、同一人物ではありません。Google Cloud Blog には英語版が掲載されています。 さと (@sato_neet) さんが 10 年前に東京の大学を中退したとき、彼はまだ自分がアスペルガー症候群であることを知りませんでした。その後さとさんは看護学校やパン屋さんなどいくつかの道を志したものの、この障害のせいか環境や職場にうまくなじめません。そしていま彼は、全く異なる道を歩み始めました。AI への道です。 さとさんは 2 年前から AI の勉強を始めました。大学でプログラミングの基本は勉強していましたが、Python と JavaScript をより深く学び、AI で何か楽しい作品を作りコミュニティ

          「AI 画伯」を 100 万人に届けた開発者と Google Cloud | Google Cloud Blog
        • 当社寄付先 東京大学「情報経済AIソリューション寄付講座」担当准教授によるSNS等への投稿に対する見解|大広 Topics|大広 Daiko Advertising Inc.

          弊社が「AI人材の育成」という趣旨に賛同し寄付を行った、東京大学情報学環における寄付講座「情報経済AIソリューション寄付講座」の担当准教授が、SNS等において特定の個人、特定の国やその国の人々に関する不適切な内容の投稿を複数回行いました。 弊社を含む大広グループ、および弊社が属する博報堂DYグループは、いかなる差別にも断固として反対する立場をとっており、その行動規範にも「人権を尊重し、不当な差別は行わない」ことを定めております。 当該の投稿は、担当准教授個人の見解であり、弊社の意図、活動とは一切関係がございません。 また弊社は、アジアを中心にグローバルに事業展開をしており、これまでも適材適所の人材を国籍にかかわらず平等に採用しております。今回の当該准教授の投稿は弊社の方針とは大きく異なり、遺憾であります。 当社と致しましては、今後の本講座に対する寄付を中止する方針とさせて頂きます。 「情報

            当社寄付先 東京大学「情報経済AIソリューション寄付講座」担当准教授によるSNS等への投稿に対する見解|大広 Topics|大広 Daiko Advertising Inc.
          • WebAssemblyを用いてBERTモデルをフロントエンドで動かす - OPTiM TECH BLOG

            はじめまして。R&Dチーム所属、20.5卒の伊藤です。 普段の業務では自然言語処理と格闘していることが多いです。 今回は自然言語処理モデルとして有名なBERTをWebAssemblyを使用してフロントエンドで動かしてみた話になります。 最近、自然言語処理ライブラリとして普段お世話になっているHugging Face社のTransformersのTokenizerがRustで実装されていることを知り、それならばWebAssemblyにコンパイルして動かせるのではないかと試したみたのがきっかけです。 Tokenizerのみ動かしても実用性に乏しいため、Tokenizerから得られた結果からBERTを用いた推論をブラウザで動作させるまでを行い、備忘録がでら手順をまとめました。 どなたかの参考になれば幸いです。 8/26追記 本記事内のコードを含むリポジトリを公開しました!Dockerを使用してブ

              WebAssemblyを用いてBERTモデルをフロントエンドで動かす - OPTiM TECH BLOG
            • 【2024年版・初心者向け】 機械学習のおすすめ書籍をレベル別に厳選紹介!|kazu | 生成AI×教育 ( https://aiacademy.jp/bootcamp )

              はじめに この記事では、機械学習の書籍が多く存在し、どれを購入すれば良いかわからない方向けに、おすすめの本を紹介します。書籍はレベル別に1から5までの5段階に分けていますので、現在の自分に合ったレベルの書籍を選んでみてください。また、機械学習エンジニアを目指されている方は、ここで紹介する書籍を3〜4ヶ月かけて読み進めるのが理想です。勉強方法についてはこの記事では触れませんが、Courseraのマシンラーニングコースなど、オンラインでとても良い講座がありますので、書籍以外のサービスも活用してみてください。 *AIに関して勉強したい方は下記の2つご利用ください! AI Academy 無料でPythonや機械学習、ディープラーニングが学べるオンラインAIプログラミング学習サービス *一部コンテンツは動画プランにて全て利用可能。 AI Academy Bootcamp 個人向け6ヶ月35000円

                【2024年版・初心者向け】 機械学習のおすすめ書籍をレベル別に厳選紹介!|kazu | 生成AI×教育 ( https://aiacademy.jp/bootcamp )
              • 大規模モデルを支える分散並列学習のしくみ Part1

                はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 自然言語処理分野における大規模深層学習の重要性は日に日に高まっていますが、GPT-3, GPT-4 などのモデルの学習には膨大な計算コストがかかり、容易に学習できなくなっています。実際、モデルサイズが近年急速に大きくなっていることにより、学習に必要な計算量(FLOPs)は以下のように年々膨大になっています。近年の大規模モデルでは、NVIDIA H100 80GB であっても 1 つの GPU では、モデルをのせることすらできません。 Compute Trends Across Three Eras of Machine Learning より またScaling Laws によると、大規模なモデルは小さいモデルと比較してより優れた性能を発揮するため、自動

                  大規模モデルを支える分散並列学習のしくみ Part1
                • 「テンソル」「ベクトル」「行列」とは?ディープラーニングの情報整理のカラクリ

                  「テンソル」とは? ディープラーニングでは、複雑なニューラルネットワーク上で膨大な数の数値が駆け巡っています。コンピュータはそれらの数値を個別に扱うこともできます。 しかし、そのままではニューラルネットワーク内での計算を理論化できませんし、何よりもニューラルネットワークごとに扱う数値に関する何かしらの共通認識がなければ、ほかの人間がプログラムのコードを読んでも何が書いてあるのか分からず、技術の応用や発展につなげにくくなります。そこで使われるようになった数学的概念が「テンソル」でした。 テンソルという概念は数学的に理解するには難解なものですが、私たちから見る分には「沢山の数値の集まり」として見えます。 基本的には沢山の数値を集めて「1つの情報」として表現するのがテンソルで、例えるなら「ゲームキャラクターの特徴を無数のステータスで表す」ようなものです。表現したい情報は「キャラクター」という1つ

                    「テンソル」「ベクトル」「行列」とは?ディープラーニングの情報整理のカラクリ
                  • ElasticsearchとBERTを組み合わせて類似文書検索 - Ahogrammer

                    本記事ではElasticsearchとBERTを組み合わせて類似文書検索を行う方法について紹介します。Elasticsearchでは最近、ベクトルに対する類似文書検索の機能が実装されました。一方、BERTを使うことでテキストを固定長のベクトルに変換することができます。つまり、BERTを使ってテキストをベクトルに変換すれば、Elasticsearchを使って類似文書検索ができるということになります。 本記事では以下のアーキテクチャでElasticsearchとBERTを組み合わせた検索システムを実現します。Dockerを使ってアプリケーション、BERT、Elasticsearchのコンテナを分けることでそれぞれをスケールしやすくする狙いがあります。記事中では重要な部分のみ提示しますが、システム全体はdocker-composeのファイルとして記述しこちらのリポジトリに置いてるので、参照してく

                      ElasticsearchとBERTを組み合わせて類似文書検索 - Ahogrammer
                    • OpenAIのサム・アルトマンCEOが数百兆円という桁外れの資金調達を計画し「半導体業界の再構築」を目指している、すでに孫正義やUAEの有力者と会談しているとの報道も

                      ChatGPTなどの高性能AIの開発で知られるOpenAIのサム・アルトマンCEOが、世界の半導体生産能力を拡大するために数百兆円規模の資金調達を計画していることが報じられました。 Sam Altman Seeks Trillions of Dollars to Reshape Business of Chips and AI - WSJ https://www.wsj.com/tech/ai/sam-altman-seeks-trillions-of-dollars-to-reshape-business-of-chips-and-ai-89ab3db0 文章生成AIや画像生成AIなどの開発にはGPUやAI専用チップなどの計算資源が大量に必要です。OpenAIはMicrosoftと協力して大規模なスーパーコンピューターの構築に取り組んでいますが、アルトマンCEOは公の場で「十分なサービス

                        OpenAIのサム・アルトマンCEOが数百兆円という桁外れの資金調達を計画し「半導体業界の再構築」を目指している、すでに孫正義やUAEの有力者と会談しているとの報道も
                      • 機械学習をサービスに導入するノウハウ

                        ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog はじめての○○特集2本目の記事です。 ヤフーのサイエンス部門に所属する山本康生です。主に広告やYahoo!ショッピングに対して機械学習の施策によるサービス改善を担当しています。今日は「機械学習をサービスに導入するノウハウ」というテーマで、機械学習をサービスに組み込みたいという動機から、それを実現するまでの背景をヤフー社内の事例を交えてご紹介します。 ヤフーでの深層学習を含む機械学習の適用範囲は多岐にわたり、中核事業である広告への適用[1][2]に始まり、Yahoo!ニュース[3]、Yahoo!ショッピング、ヤフオク![4]、GYAO!、その他多くのサービスに組み込まれています。 機械学習を適用したい「タスク」を決めましょう 皆さん

                          機械学習をサービスに導入するノウハウ
                        • 富岳のディープラーニング処理を支えるJITコンパイラ「Xbyak_aarch64」誕生秘話 | gihyo.jp

                          TOP500、HPCG、HPL-AI、Graph500での世界1位獲得、新型コロナウイルス対策を目的とした試行利用など、話題に事欠かないスーパーコンピュータ「富岳⁠」⁠。そのディープラーニング処理を高速化するには、あるOSSの存在が必要不可欠でした。それが、サイボウズ・ラボ(⁠株⁠)の光成滋生氏が開発したx86/x64向けC++ JITアセンブラ「Xbyak」の設計思想をベースに、光成氏の助言のもと(⁠株⁠)富士通研究所が開発したArm向けのC++ JITアセンブラ「Xbyak_aarch64」です。Xbyak_aarch64は、富岳上でのディープラーニング処理を実現するキー技術のひとつです。 本記事では、Xbyakの開発者である光成氏を中心に、(⁠株)富士通研究所の上席研究員であり、Linuxカーネルへのコアコミッターでもある小崎資広氏を聞き手役として、同研究所シニアリサーチャーの川上健

                            富岳のディープラーニング処理を支えるJITコンパイラ「Xbyak_aarch64」誕生秘話 | gihyo.jp
                          • 機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」

                            機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」:AI・機械学習の独学リソース アメリカのスタンフォード大学/MIT/ハーバード大学/コロンビア大学/ニューヨーク大学といった有名大学の一部では機械学習や深層学習のオンライン講座/講義動画を無料で配信している。その概要と特長をまとめる。

                              機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」
                            • EV減速の中でもっとも注意すべき政策

                              EVシフトの減速を示すニュースが次々に発表されている。BMW、GM、フォード、テスラ、リビアン、アップルなど、多くの会社が先行きの見込みをマイナス修正。計画の先延ばしや中止など、現実に応じた修正を余儀なくされている。 ただし、こうなるのはずっと前から分かっていたことで、ようやく世間が悪夢から覚めたということになるだろう。「後出しで言うな」という人が出てきそうなので、本連載の過去記事を遡(さかのぼ)ってみた。まあ本人もいったい何時からマルチパスウェイの記事を書き始めたのかよく覚えていないので、一度おさらいしてみたかったのもある。 BEVシフトが限定的であることを最初に明確に書いたのは7年前、2017年5月の「日本車はガラケーと同じ末路をたどるのか?」だ。 そしてエンジンはなくならないという主張が同じ年の7月にある。「電動化に向かう時代のエンジン技術」という記事だ。 現在の流れに至る原因が欧州

                                EV減速の中でもっとも注意すべき政策
                              • [2019年度版]ドラッグ&ドロップで機械学習のモデルがつくれる「Create ML」の使い方(macOS 10.15 Catalina) #WWDC19 - その後のその後

                                ドラッグ&ドロップで超簡単にオリジナルの機械学習モデルがつくれてしまうCreate MLが大幅パワーアップしました。 新機能が増えたのと、使い方が若干変わった(より簡単になった)部分があるので、最新版として本記事をお送りします。 なお、NDAに配慮してスクリーンショットはAppleの公開資料および現行バージョンのもので代用することにします。 developer.apple.com developer.apple.com Create MLの起動方法 これまではCreate MLはまだ独立したアプリとして提供されておらず、Playgroundにコードを書いて実行してアプリケーションのUIにアクセスしていました。 しかしmacOS 10.15 Catalina / Xcode 11で提供される最新バージョンでは、独立したアプリ(Create ML.app)として提供されるようになりました。 X

                                  [2019年度版]ドラッグ&ドロップで機械学習のモデルがつくれる「Create ML」の使い方(macOS 10.15 Catalina) #WWDC19 - その後のその後
                                • Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く? - Qiita

                                  1. はじめに 世の中にはDeepLearningの学習済みモデルを公開してくださっている方がたくさんいらっしゃいます。本記事は、そのうちのいくつかをラズパイ4で動かしてみて、いったいどれくらいの速度で動くのかを検証したものです。 計測対象モデルとして、Mediapipe および TensorFlow.js、TensorFlow Lite models で公開されている学習済みモデルを利用させて頂きました。またモデル実行フレームワークとしては、モバイル向けに整備が進む TensorFlow Lite (C++) を用いました。 計測にあたっては、公開されているモデルをそのまま動かすだけでなく、一般的な高速化手法である下記の2手法を両方試し、その効果も計測しました。 [1] モデルをint8量子化する方法 演算精度に多少目をつぶる代わりに、NEON等のSIMD演算器による並列処理の並列度をさ

                                    Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く? - Qiita
                                  • StyleGAN2で属性を指定して顔画像を生成する - すぎゃーんメモ

                                    memo.sugyan.com の記事の続き(?)。 ある程度の学習データを収集して学習させたモデルが出来たので、それを使って実際に色々やってみる。 StyleGAN2-ADA 学習 mapping出力と生成画像 生成画像の属性推定結果から潜在空間の偏りを抽出 表情推定 顔姿勢推定 髪領域推定 (顔解析) 年齢 (上手くいかず) 複合 Repository StyleGAN2-ADA 前回の記事でも書いたけど、厳選した16,000枚の画像を使って StyleGAN2-ADA を使って生成モデルを学習させてみた。 github.com これは StyleGAN2 から進化したもので、より少ない枚数からでも安定して学習が成功するようになっていて、さらにparameter数など調整されて学習や推論もより早くなっている、とのこと。 それまでのStyleGANシリーズはTensorFlowで実装され

                                      StyleGAN2で属性を指定して顔画像を生成する - すぎゃーんメモ
                                    • Rustで扱える機械学習関連のクレート2021 - Stimulator

                                      - はじめに - 本記事では、Rustで扱える機械学習関連クレートをまとめる。 普段Pythonで機械学習プロジェクトを遂行する人がRustに移行する事を想定して書くメモ書きになるが、もしかすると長らくRustでMLをやっていた人と視点の違いがあるかもしれない。 追記:2021/02/24 repositoryにしました。こちらを随時更新します github.com 追記;2021/07/26 GitHub Pagesでウェブサイトにしました vaaaaanquish.github.io - はじめに - - 全体感 - - 機械学習足回り関連のクレート - Jupyter Notebook Numpy/Scipy Pandas 画像処理 形態素解析/tokenize - scikit-learn的なやつ - 各ライブラリと特徴比較 - Gradient Boosting - XGBoos

                                        Rustで扱える機械学習関連のクレート2021 - Stimulator
                                      • 機械学習とディープラーニング、どちらを使えばいいのか

                                        研究開発プロジェクトを先に進めるためにどのようなAI技術を使用すればいいのだろうか。本稿では、その一助とすべく、機械学習とディープラーニング(深層学習)の違いについて概説し、それぞれをどのように適用すべきかについて説明する。 科学技術の急速な成長と進化のおかげもありますが、研究開発プロジェクトを先に進めるためにどのようなAI(人工知能)技術を使用するかを理解し、定めることは困難です。本稿では、その一助とすべく、機械学習とディープラーニング(深層学習)の違いについて概説し、それぞれをどのように適用すべきかについて説明します。 定義:機械学習vs.ディープラーニング 機械学習とディープラーニングの両方において、エンジニアはMATLABなどのソフトウェアツールを使用して、コンピュータがサンプルデータセットから学習することで、データの傾向や特性を識別できるようにします。 まず機械学習の場合、学習デ

                                          機械学習とディープラーニング、どちらを使えばいいのか
                                        • 「生成Deep Learning」は久しぶりにワクワクするAI関係の本だった - karaage. [からあげ]

                                          「生成Deep Learning」を読みました 生成に特化したAIの本「生成Deep Learning」を読みました。 生成 Deep Learning ―絵を描き、物語や音楽を作り、ゲームをプレイする 作者:David Foster発売日: 2020/10/05メディア: 単行本(ソフトカバー) 独創力とは、思慮深い模倣以外の何ものでもない とは18世紀フランスの哲学者ヴォルテールの言葉とのことですが、AIによる模倣と創造の境界に関して考えさせられるような本でした。 本の内容は、オートエンコーダからはじまりGANでの画像生成、文章生成、音楽生成。アテンション、強化学習の世界モデルまでとタイトル通り生成系のAI技術を幅広くカバーしています。 結構骨太で、AIの本は1冊目という人が読む本ではなくて、何冊かAI関係の書籍を読んで、ある程度自分で実践して、生成系のAI(Auto Encoderと

                                            「生成Deep Learning」は久しぶりにワクワクするAI関係の本だった - karaage. [からあげ]
                                          • RecSys 2019 ベストペーパーを読んだメモ - Qiita

                                            紹介論文 Are We Really Making Much Progress? A Worrying Analysis of Recent Neural Recommendation Approaches (RecSys 2019) 日本語では「本当にそんなに進捗出てるの? -或いは最近のNN推薦手法に対する警鐘-」という感じだろうか。 元論文はこちら https://arxiv.org/pdf/1907.06902.pdf 概要 DNNが登場してから推薦分野でもDeepXXな手法が増えている 新手法の登場頻度が高いため、代表的なタスクであるtopN推薦に対してすらSOTAが何か追えなくなっている そこでトップ会議(KDD, SIGIR, WWW, RecSys)のDNN関連研究18本を追試した 18本のうち、現実的な努力を行った上で再現できたのが7本 (RecSysでの発表によると、)

                                              RecSys 2019 ベストペーパーを読んだメモ - Qiita
                                            • 伊藤詩織さんに中傷ツイート 元東大准教授に33万円支払い命令 | 毎日新聞

                                              ツイッターに虚偽の投稿をされて名誉を傷つけられたとして、ジャーナリストの伊藤詩織さん(32)が、大沢昇平・元東京大大学院特任准教授に110万円の損害賠償を求めた訴訟の判決で、東京地裁は6日、33万円の支払いと投稿の削除を命じた。藤沢裕介裁判長は「伊藤さんに与えた精神的苦痛は軽視できない」と指摘した…

                                                伊藤詩織さんに中傷ツイート 元東大准教授に33万円支払い命令 | 毎日新聞
                                              • GitHub - Valkyrja3607/tuning_playbook_ja: ディープラーニングモデルの性能を体系的に最大化するためのプレイブック

                                                現在,ディープニューラルネットワークを実際にうまく機能させるためには,驚くほど多くの労力と推測が必要です.さらに悪いことに,深層学習で良い結果を得るために実際に使われるレシピが文書化されることは稀です.論文では,よりきれいなストーリーを提示するために,最終的な結果に至ったプロセスは無視され,商業的な問題に取り組む機械学習エンジニアには,一歩下がってそのプロセスを一般化する時間はほとんどありません.教科書は,たとえ著者が有用な助言を提供するために必要な応用経験を有していたとしても,実用的な指針を避け,基本原理を優先する傾向がある.このドキュメントを作成する準備をしていたとき,私たちは,深層学習で良い結果を得る方法を実際に説明する包括的な試みを見つけることができませんでした.その代わりに,ブログ記事やソーシャルメディア上のアドバイスの断片,研究論文のappendixから覗くトリック,ある特定の

                                                  GitHub - Valkyrja3607/tuning_playbook_ja: ディープラーニングモデルの性能を体系的に最大化するためのプレイブック
                                                • 【Python】東京23区の中古マンション販売価格予測をやってみた - Qiita

                                                  参考文献 今回、以下サイトを参考にさせていただき、また大変勉強させていただきました。感謝申し上げます。 SUUMO の中古物件情報を Tableau で分析してみる ~データ収集編~ SUUMO の中古物件情報を Tableau で分析してみる ~データ予測編~ 機械学習を使って東京23区のお買い得賃貸物件を探してみた 〜スクレイピング編〜 オープンポータル (オープンデータ活用サイト、競売、人口、駅) 1.準備:パッケージインポートなど 1.1 Google Driveへのマウント、パッケージのインポート ここでは、Google CplaboratoryからGoogle Driveへファイル書き出し、読み込みをするための準備や、今回使うパッケージのインポートを行いました。また、後ほどデータ加工用の関数群も予め定義しておきます。 #ドライブ設定 PATH_GMOUNT='/content/

                                                    【Python】東京23区の中古マンション販売価格予測をやってみた - Qiita
                                                  • 物体検出のDeepLearning読むべき論文7選とポイントまとめ【EfficientDetまでの道筋】 - Qiita

                                                    お久しぶりです。 2012年のHintonさんのAlexNetによるILSVRCでの圧勝を皮切りに、画像認識の世界でもDeepLearningが脚光を浴びることとなりました。 物体検出の世界でも現在DeepLearningを用いたモデルが主流になっています。 https://paperswithcode.com/sota/object-detection-on-coco を見ると、 COCO test-devにおいて、state-of-the-art(SoTA)のモデルはEfficientDet-D7xのようです。 独断と偏見も少々ありますが、そのEfficientDetを理解するために読むべき論文を7つ集めてみました。 DeepLearning以降の物体検出に焦点を当てて、出来るだけ簡潔につらつらと書いていきたいと思います。 物体検出とは 物体検出について知らないという人は以下の動画を見

                                                      物体検出のDeepLearning読むべき論文7選とポイントまとめ【EfficientDetまでの道筋】 - Qiita
                                                    • DeepFake技術解説 人を超えるAIを作るには - Qiita

                                                      今日は、@Jiny2001です。 国内でも悪用され初めてついに逮捕者が出たDeepFake。本記事はDeepFakeの総まとめです。 キーになる各技術の仕組みとしてStyleGAN, FaceSwap, StarGAN, Talking Headsについて解説してみました。何故AIがこれだけ進歩してきたのか、この技術部分の理解が超大事だと思ってます。気になるなら是非読んでみて下さい。 そして最後にちょっとだけ、今後のAI発展についての期待を書いてみました。 Too long; didn't read? 1行で要約すると → DeepFake ぱねぇ です。 目次 DeepFake系技術の現状 DeepFakeの大まかな技術体系の解説 1) Face Synthesis: (StyleGAN) 2) Identity Swap: (FaceSwap) 3) Attribute Manipul

                                                        DeepFake技術解説 人を超えるAIを作るには - Qiita
                                                      • Gen-2 by Runway

                                                        Realistically and consistently synthesize new videos. Either by applying the composition and style of an image or text prompt to the structure of a source video (Video to Video). Or, using nothing but words (Text to Video). It's like filming something new, without filming anything at all.

                                                          Gen-2 by Runway
                                                        • 【論文解説】OpenAI GPT-4 を理解する

                                                          さて、ChatGPT が非常に盛り上がっていますが、2022年11月にリリースされた ChatGPT は GPT-3.5 というモデルがベースになっています。 そして、2023年3月にはその後継モデルである GPT-4 がリリースされ、ChatGPT Plus で利用できるようになっています。(月額20$) それ以降も画像データを処理できるようになったり、個人の好みを記憶できるようになったりと色々なアップデータがあってこの先どうなるんだろうと楽しみになりますね。 今回は、もともとの GPT-4 についてしっかりと解説したいと思います。 ちょっとした対話であれば GPT-3.5 でも GPT-4 でもそこまで大きな差はないように思えますが、GPT-4 に情報抽出や分類問題などのタスクを解かせようとすると、GPT-4 の方がかなり精度が良くなっていることがわかります。 ですので、より複雑な利用

                                                            【論文解説】OpenAI GPT-4 を理解する
                                                          • 深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで

                                                            第1回Webインテリジェンスとインタラクションセミナー(いまさら訊けないシリーズ「言語処理技術」)での発表資料です。 https://www.sigwi2.org/next-sigRead less

                                                              深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
                                                            • Talking Head Anime from a Single Image

                                                              The characters are virtual YouTubers affiliated with Nijisanji and are © Ichikara, Inc. (see footnote) They have a very lenient guideline for derivative works which I have interpreted that official artworks can be used in the pursuit of hobbies as long as they are not sold or used for commercial purposes. In fact, there are fan-made games created using official materials. I think that what I'm doi

                                                              • RNNでTransformer並みの性能を実現するRWKVがやばい

                                                                (本記事は数時間前からRWKVの手法について調べ始めた著者が、手法をまとめるためのメモ書きとして深夜テンション書いたレベルのものです。内容の正確さについて保証しないので各自最後にある参考文献の確認をお願いします。日本語の記事でRWKVの手法について解説されたものが見当たらなかったので、一部僕の見解が含まれますが英語版中国語版の翻訳程度に受け取ってもらえたら幸いです。中国語は一切読めないけど・・・) Introduction 昨今の生成系AIブームの中で、OpenAIが開発するChatGPT、特にGPT4の性能は目を引くものがあります。ですが、そのモデルを動かすための計算資源にも目を引くものがあり、LLaMA.cppなどローカルで動かそうとする試みは存在するにせよ、やはり一般の家庭でしかも現実的な電気代でGPT4を動かすという未来は遠そうです。 さて、そんな話題のChatGPTやGPT4です

                                                                  RNNでTransformer並みの性能を実現するRWKVがやばい
                                                                • パラメータ数10億!最新の巨大画像認識モデル「BiT」爆誕 & 解説 - Qiita

                                                                  オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 2019年12月24日のクリスマスイブにarxiv上でGoogle Brainから新たな画像認識モデルが発表されました。その名も BiT(=Big Transfer)。その性能は2019年にGoogleが出したEfficientNet(拙著解説記事)を様々なデータセットで超えるほどで現在のState-of-The-Art になっています。驚くべきはそれだけでなく、なんとこのモデル、パラメータ数が10億にもおよぶ巨大なモンスターモデル になっています。そんなBiTについて早速この記事で解説していきたいと思います。バッチノームやドロップアウト、Weight Decayなどを使用していないという、 今までの画

                                                                    パラメータ数10億!最新の巨大画像認識モデル「BiT」爆誕 & 解説 - Qiita
                                                                  • 機械学習の初心者がモチベーションを上げるために読む無料記事いろいろ - orangeitems’s diary

                                                                    機械学習の勉強とモチベーション 機械学習の扉を開いてみた・・のですが、いきなり数学が現れたりPythonが現れたりしてなかなか障壁が高そうな雰囲気です。でも、機械学習のさわりの部分すら知らないでいきなり数学から始めると、モチベーションがどんどん下がってきます。でも数学をわからないと先に進めない・・。 ということで、いやいや、とりあえず機械学習の超基本的なところをその道の達人から教えてもらう。また、こんなのは向いてないからねというアンチパターンも学ぶ。その上で、もし手を動かせるところまで来たらこんなことができるよ!という記事を集めてみました。 基本的な考え方を頭に入れるための資料 とりあえずこの2つの資料は繰り返し読んでおくと、次のステップでつまづきません。読みやすい記事なのでお勧めです。 一から始める機械学習 qiita.com 対象読者 ・機械学習について一から勉強したい人が対象です 目

                                                                      機械学習の初心者がモチベーションを上げるために読む無料記事いろいろ - orangeitems’s diary
                                                                    • Pythonで機械学習をするために必要な数学知識と勉強法 | フリーエンジニアのためのお役立ちコラム

                                                                      機械学習とはどのようなものか 最近ではプログラミング言語としてPythonが注目されるようになり、機械学習、AI(人工知能)という言葉がよく聞かれるようになりましたが、これらの言葉を聞いて、皆さんはどのようなイメージを思い浮かべるでしょうか。 人それぞれ想像するものは違うでしょうが、一般的には「言葉を自動で翻訳してくれる」「画像を自動で識別してくれる」といったイメージをする方が多いのではないでしょうか。また一方で、「人間の仕事を奪ってしまう」といった悪いイメージを持つ方もいらっしゃるかと思います。こうした様々なイメージから、「機械学習やAI(人工知能)といったテクノロジーは、人間と同じように物事を理解している」と誤解されがちです。 しかし、機械学習の原理・理論をある程度していれば、これらの理解は間違いであることに容易に気づくことができます。実は機械学習やAI(人工知能)は、人間の言葉を理解

                                                                        Pythonで機械学習をするために必要な数学知識と勉強法 | フリーエンジニアのためのお役立ちコラム
                                                                      • 機械学習・ディープラーニング関係の初心者が独学するのにオススメの書籍 - karaage. [からあげ]

                                                                        機械学習・ディープラーニング関係の本を整理してみた 以下のような事情もあり、初心者向けに良い本って何だろうなと家にある機械学習・ディープラーニング関係の書籍を引っ張り出してきました。 新入社員としてAI人材が来るという話を聞いていたので「色々教えてもらおう!」と楽しみにしていたのですが、配属直前になって「ソフトウェアの経験は無いらしい、AI人材に育ててほしい」と言われたときの顔してます。そんなことある?— からあげ (@karaage0703) June 5, 2020 紙の書籍 電子書籍 正確には、紙の本も電子書籍もここに無いもの(noteやboothで買ったもの)が数冊あるので、全部入れて40冊程度でした。なんとなく100冊くらいは読んでるかと思っていたのですが全然でした。人間の感覚って当てにならないものですね。ただ、良く考えると、何か1つのジャンルで10冊も書籍持っているかというと、

                                                                          機械学習・ディープラーニング関係の初心者が独学するのにオススメの書籍 - karaage. [からあげ]
                                                                        • 畳み込みの仕組み | Convolution

                                                                          確率から画像処理まで、離散畳み込みと高速フーリエ変換(FFT) 激ムズ数え上げパズルと驚きの解法 https://youtu.be/FR6_JK5thCY フーリエ変換の解説動画 https://youtu.be/fGos3wrKeHY 【注釈】 整数のかけ算のアルゴリズムについて、FFTの"straightforward"な適用はO(N * log(n) log(log(n)) )の実行時間になる。log(log(n))の項は小さいが、2019年になってHarvey and van der Hoevenがこの項を取り除くアルゴリズムを発見した。また、O(N^2)を、必要な計算量がN^2と共に大きくなると表現したが、厳密にはこれはTheta(N^2)が意味するところである。 O(N^2)は計算量が高々N^2の定数倍になるという意味で、特に、実行時間がN^2項を持たないが有界であるアル

                                                                            畳み込みの仕組み | Convolution
                                                                          • ゼロから作るDeep Learningで素人がつまずいたことメモ:7章 - Qiita

                                                                            はじめに ふと思い立って勉強を始めた「ゼロから作るDeep LearningーーPythonで学ぶディープラーニングの理論と実装」の7章で私がつまずいたことのメモです。 実行環境はmacOS Mojave + Anaconda 2019.10、Pythonのバージョンは3.7.4です。詳細はこのメモの1章をご参照ください。 (このメモの他の章へ:1章 / 2章 / 3章 / 4章 / 5章 / 6章 / 7章 / 8章 / まとめ) 7章 畳み込みニューラルネットワーク この章は、畳み込みニューラルネットワーク(CNN)の説明です。 7.1 全体の構造 これまでのAffineレイヤーやSoftmaxレイヤー、ReLUレイヤーに加えて、Convolution(畳み込み、コンボリューション)レイヤーとPooling(プーリング)レイヤーが出てくる説明です。 7.2 畳み込み層 畳み込み層の説明

                                                                              ゼロから作るDeep Learningで素人がつまずいたことメモ:7章 - Qiita
                                                                            • PyTorch vs. TensorFlow、ディープラーニングフレームワークはどっちを使うべきか問題【2019-2020年】

                                                                              連載目次 ※本稿には新バージョンがあります。2021年に向けてのアップデート記事(2020年12月16日公開)はこちらです。 本稿は、ディープラーニング(深層学習)に関心があるビジネスマンから、これから始めてみたいというエンジニア、既に取り組んでいる実務経験者まで、幅広い人に向けて書いた。よって、初歩的な内容も含めつつ説明していくのでご了承いただきたい。 ディープラーニングを実装する場合、フルスクラッチでゼロからコードを書くのは非効率なため、専用のライブラリ/フレームワークが用いられるのが一般的だ。ディープラーニングが流行してから直近4年ほどの間に、次々と新しいフレームワークが登場した。現在、主要なものを挙げると、 TensorFlow: 2015年登場、Google製。一番有名で、特に産業界で人気 PyTorch: 2016年登場、Facebook製。この中では新興だが、特に研究分野で人

                                                                                PyTorch vs. TensorFlow、ディープラーニングフレームワークはどっちを使うべきか問題【2019-2020年】
                                                                              • 2020年超盛り上がり!自己教師あり学習の最前線まとめ! - Qiita

                                                                                オミータです。ツイッターで人工知能のことや他媒体の記事など を紹介していますので、人工知能のことをもっと知りたい方などは @omiita_atiimoをご覧ください! 他にも次のような記事を書いていますので興味があればぜひ! わずか1%のラベルでImageNet高精度「SimCLR」解説 出きたてホヤホヤ!最新オプティマイザー「AdaBelief」を解説! 画像認識の大革命。AI界で話題爆発中の「Vision Transformer」を解説! 新たな活性化関数「FReLU」誕生&解説! 自然言語処理の王様「BERT」の論文を徹底解説 2021/02/28 SimCLRのバッチサイズに関する記述を修正 2020年に大きく盛り上がりを見せた分野に自己教師あり学習(=Self-Supervised Learning(SSL))があります。SSLとは名前の通り自分で教師を用意するような手法で、デー

                                                                                  2020年超盛り上がり!自己教師あり学習の最前線まとめ! - Qiita
                                                                                • 深層学習界の大前提Transformerの論文解説! - Qiita

                                                                                  この例に関する質問への回答を補足の項に記載しましたので、より良い理解のためにご参照ください。 1.3 モデル構造 トランスダクションモデル(ある文章を他の文章に変換するモデル(翻訳など))において主流なのは以下のようなエンコーダ-デコーダモデルである。 エンコーダ: 入力の文 $(x_1,\ldots,x_n)$ を $\boldsymbol{z}=(z_1,\ldots,z_n)$ へ変換 デコーダ: $\boldsymbol{z}$ から単語 $(y_1,\ldots,y_m)$ を出力。 ただし、1時刻に1単語のみで、前時刻のデコーダの出力を現時刻のデコーダの入力として使う。 Transformerは基本的な大枠はエンコーダ-デコーダモデルでself-attention層とPosition-wise全結合層を使用していることが特徴。 つまり、以下の3つ(+2つ)のことが分かればモデル

                                                                                    深層学習界の大前提Transformerの論文解説! - Qiita