並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 390件

新着順 人気順

Transformerの検索結果241 - 280 件 / 390件

  • 2つのTransformerが協力して1つの強いGANを作ることが可能!

    3つの要点 ✔️ 世界初の純粋なトランスフォーマーベースのGAN ✔️ 変形GANを学習するためのメモリフレンドリーな生成器と新しい学習技術のセット ✔️ STL-10ベンチマークにおいて、CNNベースのGANや新しいSOTAと競合する結果を獲得 TransGAN: Two Transformers Can Make One Strong GAN written by Yifan Jiang, Shiyu Chang, Zhangyang Wang (Submitted on 14 Feb 2021 (v1), last revised 16 Feb 2021 (this version, v2)) Comments: Accepted to arXiv. Subjects: Computer Vision and Pattern Recognition (cs.CV) code: はじめ

      2つのTransformerが協力して1つの強いGANを作ることが可能!
    • GitHub - microsoft/unilm: Large-scale Self-supervised Pre-training Across Tasks, Languages, and Modalities

      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

        GitHub - microsoft/unilm: Large-scale Self-supervised Pre-training Across Tasks, Languages, and Modalities
      • ビジョン・トランスフォーマーはなぜCNNより強い?その仕組みを解明【論文速報】

          ビジョン・トランスフォーマーはなぜCNNより強い?その仕組みを解明【論文速報】
        • 「GPT-3」周辺で調べたことをまとめる(2021年2月) - u++の備忘録

          コンピュータサイエンス技術の一つに、自然言語処理(NLP)と呼ばれている領域があります。NLPは、コンピュータに人間の用いる言語(自然言語)を処理させる取り組み全般を指します。 ここ数年のNLPの傾向として、大規模テキストでの事前学習済みモデルの活用が挙げられます。代表的な例が、Googleが2018年10月に発表した「Bidirectional Encoder Representations from Transformers (BERT)」*1です。BERTは多数のNLPタスクで飛躍的な性能を示し、注目を集めました。BERTの登場後、大規模テキストを用いた巨大モデルを学習させていく流れが強まっています*2。 BERTの登場以前は、個別のタスクに対してモデルを訓練する取り組みが優勢でした。一方でBERTでは、事前に大量のテキストデータを用いて巨大なニューラルネットワークを学習させて汎用的

            「GPT-3」周辺で調べたことをまとめる(2021年2月) - u++の備忘録
          • Huggingface Transformers 入門 (8) - トークナイザー|npaka

            1. トークナイザー「トークナイザー」は、「テキスト」を「トークン」に分割し、それを「ID」に変換する機能を提供します。「テキスト」はそのままではニューラルネットワークで処理できないため、IDに変換する必要があります。 2. トークン化の方法テキストのトークン化は見た目以上に大変な作業で、トークン化の方法は複数あります。 ・単語 ・文字 ・サブワード2-1. 単語によるトークン化◎ スペースによるトークン化 一番簡単なトークン化の方法は、「スペースによるトークン化」です。 "Don’t you love 🤗 Transformers? We sure do." ↓ ["Don't", "you", "love", "🤗", "Transformers?", "We", "sure", "do."] これは良い第1歩ですが、"Transformers? " や "do. " というトーク

              Huggingface Transformers 入門 (8) - トークナイザー|npaka
            • レゴのトランスフォーマーに一目惚れ

              身長60cmほどで地球を侵略しようと頑張ってます。 レゴでトランスフォーマーを作った人がいるみたいです。映画『トランスフォーマー』に出てくる「ブラック・アウト」をモチーフに、ちゃんと変形も可能な形に組み立てたそうです(変形はちょっと無理やりっぽいですが)。 素晴らしい出来栄えですね。ホントすごい。もっとよく見たいあなたのために、以下に写真ギャラリーをドンと掲載しておきます。

              • 映画『トランスフォーマー』は保守派の政治メッセージか | WIRED VISION

                映画『トランスフォーマー』は保守派の政治メッセージか 2007年8月14日 カルチャー コメント: トラックバック (0) Adam Rogers 2007年08月14日 このような記事を書いているのに間抜けな話だが、私は映画『トランスフォーマー』をまだ見ていない。 しかし、この映画のストーリーに保守的な政治メッセージを読み取ろうとする批評や解説はいくつか目にした。つまり、軍隊を礼賛している、「自由」を求めて戦う強力なテクノロジー、といった内容だ。 しかしブログ界はなかなかクールだ。この映画の脚本家の1人であるJohn Roger氏が、このような見方に対して、自身のブログで以下のように反論している。 こうした主張は、2つのことを浮き彫りにする―― 第一に、このような形で文化を採点するのは馬鹿げているということだ。いや、馬鹿げたどころの騒ぎではない。 たとえば、エンターテインメント情報紙『V

                • オレ流「Optimus Prime」は、本物よりもカッコイイ!?

                  またまた、トランスフォーマーネタをひとつ。 こちらは既製品モデルをベースに、Pairadocsさんが丹念に改良を重ね、色を塗り替え、完成させた「Opeimus Prime Protoform」だそうです。妥協のない職人技の光る逸品なのです。もしかして・・・本物よりかっこよかったり!? さて、彼が何故? どうやって? この「Optimus Prime Protoform」モデルを製作したか、興味あります?以下に本人のコメントとともに変身ギャラリーもご用意したので、あわせてチェックしてみてください。 「私は、このロボットの中にダイヤモンドの原石を見た気がしたので、トリートメントを施そうと思いました」 「詰めたり、削ったり、ねじの穴を研磨したりして、滑らかで美しいラインを作り、さらに洗練させたんです」 「色にもこだわりたかったので、何重にもペイントしたんですよ」 「まずは、メタリックな黒でベース

                  • Don't break the chain: use RxJava's compose() operator

                    One nice aspect of RxJava is that you can see how data is transformed through a series of operators: Observable.from(someSource) .map(data -> manipulate(data)) .subscribeOn(Schedulers.io()) .observeOn(AndroidSchedulers.mainThread()) .subscribe(data -> doSomething(data)); What if you have a set of operators that you want to reuse for multiple streams? For example, I frequently use subscribeOn() and

                      Don't break the chain: use RxJava's compose() operator
                    • Deconstructing BERT: Distilling 6 Patterns from 100 Million Parameters

                      The year 2018 marked a turning point for the field of Natural Language Processing, with a series of deep-learning models achieving state-of-the-art results on NLP tasks ranging from question answering to sentiment classification. Most recently, Google’s BERT algorithm has emerged as a sort of “one model to rule them all,” based on its superior performance over a wide variety of tasks. 🕹 Try out a

                        Deconstructing BERT: Distilling 6 Patterns from 100 Million Parameters
                      • 昔からある場所、MTのプラグインを書く練習

                        ワールドカップ決勝戦は、結局同点のまま延長戦に突入するあたりで力尽きて寝てしまいました。3時間強眠って目が覚めると、テレビではイタリアの勝利とジダンの頭突きが伝えられていました。まさかそんなことが起こっていたとは。肝心なところで歴史の目撃者にはなれなかったようです。 昼休みに久しぶりにある喫茶店に行きました。この喫茶店にはじめてきたのは高校生の時だったでしょうか。高校の先輩にあたるMさんに連れてきてもらったのが初めてだったと記憶しています。その頃は小説を書いたりして、仲間で原稿を持ち寄って本を作ったりしていました。楽しかった。その後も梅田で本を買って読むのに使ったり、仕事帰りに休憩に立ち寄ったり、彼女と来たり友達と来たりとお気に入りの店です。何がお気に入りなのかと改めて考えてみると、高架下なので電車の通る音は時折うるさいし、時間帯によってはけっこう混雑していたりするので静かでゆっくりできる

                          昔からある場所、MTのプラグインを書く練習
                        • How Transformers work in deep learning and NLP: an intuitive introduction | AI Summer

                          The famous paper “Attention is all you need” in 2017 changed the way we were thinking about attention. With enough data, matrix multiplications, linear layers, and layer normalization we can perform state-of-the-art-machine-translation. Nonetheless, 2020 was definitely the year of transformers! From natural language now they are into computer vision tasks. How did we go from attention to self-atte

                            How Transformers work in deep learning and NLP: an intuitive introduction | AI Summer
                          • Scaling Laws for Neural Language Models

                            We study empirical scaling laws for language model performance on the cross-entropy loss. The loss scales as a power-law with model size, dataset size, and the amount of compute used for training, with some trends spanning more than seven orders of magnitude. Other architectural details such as network width or depth have minimal effects within a wide range. Simple equations govern the dependence

                            • 【メタサーベイ】Video Transformer

                              cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/ Read less

                                【メタサーベイ】Video Transformer
                              • Transformerを性能で凌駕、AIの新たな可能性を拓く5月の注目論文

                                生成AI(人工知能)を含む最新のAI研究動向を知るため、世界中の研究者やエンジニアが参照しているのが、論文速報サイト「arXiv(アーカイブ)」である。米OpenAI(オープンAI)や米Google(グーグル)などAI開発を主導するIT企業の多くが、研究成果をarXivに競って投稿している。 そんなarXivの投稿論文から、2024年5月(1日~31日)にSNSのX(旧Twitter)で多く言及されたAI分野の注目論文を紹介する。調査には米Meltwater(メルトウォーター)のSNS分析ツールを利用した。対象はXの全世界のオリジナル投稿、コメント、再投稿、引用投稿である。調査は、日経BPが2024年1月に新設したAI・データラボの活動の一環として実施した。 Transformer並みの拡張性をLSTMで実現 5月に最も多く言及された論文は、オーストリアの研究チームが発表した「xLSTM:

                                  Transformerを性能で凌駕、AIの新たな可能性を拓く5月の注目論文
                                • Toolformer: Language Models Can Teach Themselves to Use Tools

                                  Language models (LMs) exhibit remarkable abilities to solve new tasks from just a few examples or textual instructions, especially at scale. They also, paradoxically, struggle with basic functionality, such as arithmetic or factual lookup, where much simpler and smaller models excel. In this paper, we show that LMs can teach themselves to use external tools via simple APIs and achieve the best of

                                  • Visual Question Answering

                                    VQA is a new dataset containing open-ended questions about images. These questions require an understanding of vision, language and commonsense knowledge to answer. 265,016 images (COCO and abstract scenes) At least 3 questions (5.4 questions on average) per image 10 ground truth answers per question 3 plausible (but likely incorrect) answers per question Automatic evaluation metric

                                      Visual Question Answering
                                    • なぜビジョントランスフォーマーはこれほど高性能なのか。

                                      3つの要点 ✔️ ViTは、すべての層でより均一な表現(特徴量)を持っている。つまり各層での表現が似ている。 ✔️ ViTは、自己注意(self-attention)により早期にグローバルな情報を集約できる。 ✔️ ViTは、表現を下位層から上位層へ強く伝搬させる。 Do Vision Transformers See Like Convolutional Neural Networks? written by Maithra Raghu, Thomas Unterthiner, Simon Kornblith, Chiyuan Zhang, Alexey Dosovitskiy (Submitted on 19 Aug 2021 (v1), last revised 3 Mar 2022 (this version, v2)) Comments: Published on arxiv.

                                        なぜビジョントランスフォーマーはこれほど高性能なのか。
                                      • ジャケット←→ショルダーバッグに変形する「Dos Caras Jacket」

                                        変形するものは、なんでもトランスフォーマーです。 そんな今、紹介する新しいトランスフォーマーはこれ。「Dos Caras Jacket」。あるときはジャケット、脱いであれこれするとショルダーバッグに変形するという逸品です。デザインもお洒落だと思うのですが、寒くてジャケット着たいけど荷物があるからバッグも欲しいときはどうしたらいいですかね? - JASON CHEN(MAKi/いちる) [Alice Kaiserswerth via Designspotter via Treehugger] 【関連記事】 「No! レジ袋ブラ」:レジ袋にトランスフォーム 【関連記事】 一応、変型らしきことができる履物 【関連記事】 変形した形に合わせて光る場所が変わる照明

                                        • ChatGPTの仕組みと課題について解説!

                                          皆さんこんにちは! 多くの方が1度は使ったことがあるであろうチャットAI、ChatGPT。従来のチャットAIからは想像もできない性能の高さを持ち、人間と会話する感覚で会話できることから大きな注目を浴びています。一方で、課題も明らかになっています。それは、人間なら気付くような単純なことでも、平気で間違った情報を答えるなど、内容の正確性や適切性に難がある点です。その為、ChatGPTの利用は、あくまでも補助的な位置づけに留めることが重要です。 とはいえ便利なものですので原理や今後の精度はどうなるのか気になりませんか? 今のままでは、その機能を活かしきれませんよね。ちょっともったいない気がしてしまいます。 今後、この課題は解決されるのでしょうか? 本記事では、ChatGPTの仕組みに踏み込んで原理を明らかにすることで、これらの課題が生じてしまう理由について知り、今後について考えていきたいと思いま

                                            ChatGPTの仕組みと課題について解説!
                                          • A Survey of Visual Transformers

                                            Transformer, an attention-based encoder-decoder model, has already revolutionized the field of natural language processing (NLP). Inspired by such significant achievements, some pioneering works have recently been done on employing Transformer-liked architectures in the computer vision (CV) field, which have demonstrated their effectiveness on three fundamental CV tasks (classification, detection,

                                            • 『機械学習エンジニアのためのTransformers』が出ます - Ahogrammer

                                              このたび、オライリー・ジャパンより、『Natural Language Processing with Transformers』の翻訳書である『機械学習エンジニアのためのTransformers』を出ることになりました。素直にタイトルを訳すと、『Transformersによる自然言語処理』のようになると思うのですが、1文字違いの本が出ていたので、このようなタイトルになっています。Amazonだと8月5日に発売のようです。表紙の鳥はゴシキセイガイインコで、オセアニアに生息しています。 『機械学習エンジニアのためのTransformers』が届きました🤗 来週発売です。 pic.twitter.com/6R2dYh7X7D— Hironsan (@Hironsan13) 2022年7月28日 本書はTransformersの開発元であるHugging Faceの開発者たちによって執筆された

                                                『機械学習エンジニアのためのTransformers』が出ます - Ahogrammer
                                              • eiga.com [ニュース&噂] - マイケル・ベイ監督「トランスフォーマー」が3部作に?

                                                ガイド 映画ニュース ハリウッドのゴシップや最新映画の製作情報など、世界中の映画ニュースをいち早くお届けする大人気コーナーです。スターの来日やイベントなど、国内の情報も網羅。これさえ読んでおけば、あなたも立派な事情通です。月曜~金曜、毎日更新。

                                                • 【ディープラーニング自由研究】LSTM+Transformer モデルによるテキスト生成|tanikawa

                                                  Abstract• Transformer モデルをテキスト生成タスクで使用する場合、計算コストに難がある • 計算コストを抑えつつ Transformer の予測性能を活かすために、Positional Encoding を LSTM に置き換えた LSTM+Transformer モデルを考案 • 生成にかかる時間を Transformer の約 1/3(CPU 実行時)に抑えることができた はじめにTransformer は現在の自然言語処理分野における代表的な深層学習モデルの1つです。さまざまなベンチマークを総なめにした Google の BERT とその派生系 (XLNet, ALBERT, etc.) や、OpenAI の GPT-2 など、最近の研究のベースにあるのが Transformer です。 Transformer の特徴として、LSTM などの従来の RNN にあっ

                                                    【ディープラーニング自由研究】LSTM+Transformer モデルによるテキスト生成|tanikawa
                                                  • 時系列予測にTransformerを使うのは有効か?

                                                    AAAI2023「Are Transformers Effective for Time Series Forecasting?」と、HuggingFace「Yes, Transformers are Effective for Time Series Forecasting (+ Autoformer)」の紹介です。Read less

                                                      時系列予測にTransformerを使うのは有効か?
                                                    • 【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning

                                                      ▼テーマ Transformer や BERT で爆発的な利用を獲得した Attention の祖となるネットワーク RNNsearch について解説します。 Attention は自然言語で GPT-3 の化け物的な精度を出したのみならず、画像や生成モデルなど、超広い領域に応用されています。 今の Deep Learning を語る上では外せない要素! 要チェック! ▼関連プレイリスト Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 (後で追加します。暫くお待ちください)

                                                        【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning
                                                      • 基盤モデルとは | TRAIL

                                                        はじめにみなさんはじめまして.TRAILの小林聖人と申します. ご覧頂きありがとうございます! また, 「基盤モデル×Robotics」のAdvent Calendarにご参加して頂き, ありがとうございます! 本記事は東京大学松尾豊研究室のサブグループであるTRAILのテックブログでご紹介させて頂いております! TRAIL ロボコン大会実績 ロボカップジャパンオープン@home2020 DSPL初出場 テクニカルチャレンジ優勝・総合準優勝の2冠WRS (World Robot Summit) 2020 Partner Robot Challenge 準優勝本題へ本記事の構成目次 ☆ 基盤モデルとは? ▷ 命名「基盤モデル foundation model」 ▷ 基盤モデルが台頭した訳 ▷ 基盤モデルの例 ☆ 基盤モデルのロボティクスへの活用例 ▷ PaLM-SayCan ▷ Code a

                                                          基盤モデルとは | TRAIL
                                                        • megagonlabs/t5-base-japanese-web · Hugging Face

                                                          ","unk_token":"","pad_token":""}},"discussionsDisabled":false,"downloads":375,"downloadsAllTime":46612,"id":"megagonlabs/t5-base-japanese-web","isLikedByUser":false,"isWatchedByUser":false,"inference":"Yes","lastModified":"2021-09-06T10:32:21.000Z","likes":18,"pipeline_tag":"text2text-generation","library_name":"transformers","librariesOther":[],"model-index":null,"private":false,"repoType":"model

                                                            megagonlabs/t5-base-japanese-web · Hugging Face
                                                          • Amazon.co.jp: BERTによる自然言語処理入門: Transformersを使った実践プログラミング: 近江崇宏 (著), 金田健太郎 (著), 森長誠 (著), 江間見亜利 (著), ストックマーク株式会社 (編集): 本

                                                              Amazon.co.jp: BERTによる自然言語処理入門: Transformersを使った実践プログラミング: 近江崇宏 (著), 金田健太郎 (著), 森長誠 (著), 江間見亜利 (著), ストックマーク株式会社 (編集): 本
                                                            • RT-1: Robotics Transformer for real-world control at scale

                                                              Philosophy We strive to create an environment conducive to many different types of research across many different time scales and levels of risk. Learn more about our Philosophy Learn more

                                                                RT-1: Robotics Transformer for real-world control at scale
                                                              • GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

                                                                この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 日本語版Twitter https://twitter.com/3B1BJP 元チャンネル(英語) https://www.youtube.com/c/3blue1brown 元動画(英語) https://www.youtube.com/watch?v=eMlx5fFNoYc&t=795s&pp=ygUVYXR0ZW50aW9uIDNibHVlMWJyb3du 新チャンネルUfolium https://www.youtube.com/watch?v=nF7gFRebGTk&pp=ygUHdWZvbGl1bQ%3D%3D https://www.youtube.com/watch?v=wrNCjIjIzuk&p

                                                                  GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
                                                                • What Are Transformer Models and How Do They Work?

                                                                  TL;DR: Transformers are a new development in machine learning that have been making a lot of noise lately. They are incredibly good at keeping track of context, and this is why the text that they write makes sense. In this blog post, we will go over their architecture and how they work. Try out the Command model, Cohere’s latest generative transformer in this demo! Transformer models are one of th

                                                                    What Are Transformer Models and How Do They Work?
                                                                  • Amazon.co.jp: トランスフォーマー デヴァイスレーベル タイガトロン operating USB MEMORY: Toy

                                                                    男の子向き 対象年齢 : 15歳から

                                                                      Amazon.co.jp: トランスフォーマー デヴァイスレーベル タイガトロン operating USB MEMORY: Toy
                                                                    • 任意の解像度/アスペクト比の画像をそのまま入力できるTransformer「MUSIQ」解説! | TC3株式会社|GIG INNOVATED.

                                                                      はじめに 本記事はDeep Learning 論文 Advent Calendar 2022の20日目です。 こんにちは、@mumeco_mlです!(ぜひフォローしてください~😊)今回は自分が今年読んだ論文の中で一番衝撃的だった論文「MUSIQ:Multi-scale Image Quality Transformer」(arxiv)の紹介をしていきたいと思います。実はこの論文は2021年の8月にarxivに投稿されているので2022年のものではないのですが、あまりこの論文に関する記事もなかったので今回選ばせて頂きました!この記事が皆様の理解に少しでも役に立てれば幸いです! 一点申し訳ないのですが元々専門がRLとNLPで、あまりCVに詳しくないのでものすごい間違っている箇所等があるかもしれません。何かあればコメントやDM頂けると助かります🙇‍♂️ 1文まとめ どんな論文? 画像品質評価

                                                                        任意の解像度/アスペクト比の画像をそのまま入力できるTransformer「MUSIQ」解説! | TC3株式会社|GIG INNOVATED.
                                                                      • GitHub - OpenNMT/CTranslate2: Fast inference engine for Transformer models

                                                                        CTranslate2 is a C++ and Python library for efficient inference with Transformer models. The project implements a custom runtime that applies many performance optimization techniques such as weights quantization, layers fusion, batch reordering, etc., to accelerate and reduce the memory usage of Transformer models on CPU and GPU. The following model types are currently supported: Encoder-decoder m

                                                                          GitHub - OpenNMT/CTranslate2: Fast inference engine for Transformer models
                                                                        • Amazon.co.jp: 機械学習エンジニアのためのTransformers ―最先端の自然言語処理ライブラリによるモデル開発: Lewis Tunstall (著), Leandro von Werra (著), Thomas Wolf (著), 中山光樹 (翻訳): 本

                                                                            Amazon.co.jp: 機械学習エンジニアのためのTransformers ―最先端の自然言語処理ライブラリによるモデル開発: Lewis Tunstall (著), Leandro von Werra (著), Thomas Wolf (著), 中山光樹 (翻訳): 本
                                                                          • transformerの使い方

                                                                            一般(?)に広くtransformerと呼ばれる、MT3.3から導入された機能群。 プラグインから管理画面を変更する手段を提供することで、より高度なプラグインの作成が可能となります。 しかし、現在日本語では殆どドキュメントが用意されていない状況です。 興味本位でちょっと調べてみたところ、こんなことも出来るのか、という使い勝手の良い部分が、知られずに埋もれていると感じたので、まとめておきます。後でチョコチョコと追記するかもしれません。 妙に堅い説明口調になってしまったのは、何ででしょうね。。。 ちなみに、3.3前後のmtのプロジェクト名は、全てアニメのトランスフォーマーのロボットの名前から取られているそうです ;-)3つのコールバック 主に以下のコールバックを利用することで、管理画面の変更が行えます。 AppTemplateSource AppTemplateParam AppTemplat

                                                                            • 【論文5分まとめ】A ConvNet for the 2020s

                                                                              この記事は、論文の内容を5分くらいで読めるようにまとめた記事です。そのため、前提となる知識や関連研究に関する説明は大幅に省略しています。 基本的には筆者の備忘録ですが、面白そうと思ったら是非ご自身でも読んでみてください。 概要 Vision Transformer以降、Visionの世界の中心はConvNetからTransformerへと移りつつある。しかし、ConvNetの設計空間は後発のTransformerのようには十分に「近代化」されておらず、古い慣習が残ったままであることも確かである。 本研究では、ConvNetの設計空間を再検討したConvNeXtを提案している。ConvNeXtは標準的なConvNetモジュールから構成され、標準的なConvNetのシンプルさと効率性を維持しながら、精度や拡張性において最先端のTransformer系手法と遜色なく、87.8%のImageNet

                                                                                【論文5分まとめ】A ConvNet for the 2020s
                                                                              • 3Blue1Brown - Visualizing Attention, a Transformer's Heart | Chapter 6, Deep Learning

                                                                                ThanksSpecial thanks to those below for supporting the original video behind this post, and to current patrons for funding ongoing projects. If you find these lessons valuable, consider joining. .chanceA ZookAaron BinnsAda CohenAdam CedroneAdam Dřínekaeroeng15Alan SteinAlbin EgasseAlex Alex HackmanAlexandru IrimieaAlexis OlsonAli YahyaAljoscha SchulzeAlon AmitAlvin KhaledAman KarunakaranAndrea Di

                                                                                  3Blue1Brown - Visualizing Attention, a Transformer's Heart | Chapter 6, Deep Learning
                                                                                • Transformer (機械学習モデル) - Wikipedia

                                                                                  Transformer(トランスフォーマー)は、2017年6月12日にGoogleの研究者等が発表した深層学習モデルであり、主に自然言語処理 (NLP)の分野で使用される[1]。 自然言語などの時系列データを扱って翻訳やテキスト要約などのタスクを行うべく設計されているのは回帰型ニューラルネットワーク (RNN)と同様だが、Transformer の場合、時系列データを逐次処理する必要がないという特徴がある。たとえば、入力データが自然言語の文である場合、文頭から文末までの順に処理する必要がない。このため、Transformer では 回帰型ニューラルネットワークよりもはるかに多くの並列化が可能になり、トレーニング時間が短縮される[1]。 その導入以来、Transformer モデルは自然言語処理の多くの問題に取り組む上で広く選択されており、 Long Short-term Memory(LS