並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 388件

新着順 人気順

Transformerの検索結果161 - 200 件 / 388件

  • AIは意識を持っているのか/持つのか、AI研究者と意識研究者たちが共同研究した結果 | AIDB

    AIは意識を持っているのか/持つのか、AI研究者と意識研究者たちが共同研究した結果 2023/8/28 メンタルヘルス・心理学 政治・社会 論文 AIDB Research AIが意識を持つ可能性についての議論が再燃しています。この問題は昔から、科学的にも哲学的にも注目が集まっています。 今回、オックスフォード大学、モントリオール大学、ARAYAなどの研究者たちは、AIが意識を持つ可能性についての科学的根拠を提供するための研究を行いました。彼らは、神経科学の理論に基づいてAIの意識の有無を評価する新しいアプローチを提案しています。 先に結論を書くと、『今のAIは、まだ意識を持っているわけではない』 『ただし、この先、AIが意識を持つことを妨げる”明確なハードルはない”』とのことです。 参照論文情報 タイトル:Consciousness in Artificial Intelligence:

      AIは意識を持っているのか/持つのか、AI研究者と意識研究者たちが共同研究した結果 | AIDB
    • GitHub - nttcslab/japanese-dialog-transformers: Code for evaluating Japanese pretrained models provided by NTT Ltd.

      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

        GitHub - nttcslab/japanese-dialog-transformers: Code for evaluating Japanese pretrained models provided by NTT Ltd.
      • 電気をバカ食いするAIは背徳、脳をまねて省エネするグーグルSwitch Transformer

        人間の脳の消費エネルギーは電力に換算するとわずか20ワットほどであり、消費電力数百ワットのGPUを何百~何千個も学習に使う最先端のAI(人工知能)に比べるとはるかに省エネである。そこで脳の動きに習って、AIの省エネを図ろうとする動きが始まっている。代表例が米Google(グーグル)の言語モデルSwitch Transformerだ。 言語モデルは最近非常に注目されている自然言語処理用のAIだ。米国のOpenAI(オープンAI)財団が2020年6月に発表した言語モデルであるGPT-3は、あたかも人間が書いたような自然な文章を作ったことから大きな話題になった。しかしGPT-3は膨大なエネルギーを消費する。 GPT-3が高性能なのは、1750億個ものパラメーターを備えた機械学習モデルに45テラバイト(TB)、4100億単語からなる巨大な文書を学習させたからだ。その学習には米Microsoft(マ

          電気をバカ食いするAIは背徳、脳をまねて省エネするグーグルSwitch Transformer
        • 「Eee Pad Transformer TF101」の“変形合体”を写真と動画で見る

          「Eee Pad Transformer TF101」の“変形合体”を写真と動画で見る:Android 3.0タブ+着脱式キーボードドック(1/3 ページ) Tegra 2とAndroid 3.0を搭載したタブレットは数あれど、こんな製品は見たことがない。ASUSの「Eee Pad Transformer TF101」は、Eee PCで培った技術を積極的に盛り込んできた。その“新しさ”を写真と動画で確認する。 iPad 2とともに、Android 3.0タブレットが世間をにぎわせているが、ひときわユニークな製品がASUSTeK Computerから発表された。この「Eee Pad Transformer TF101」は、10.1型ワイド液晶搭載のAndroid 3.0タブレットに着脱式のモバイルキーボードドックを標準添付することで、状況に応じてタブレットスタイルとミニノートPCスタイルの2

            「Eee Pad Transformer TF101」の“変形合体”を写真と動画で見る
          • 汎用自然言語モデル「BERT」は、どんな仕組みで動いているのか? コンピュータの文脈理解について解説

            前回は、センター試験の英語読解問題に必要となる単語分散表現による単語理解について説明しました。紹介した単語分散表現獲得の例では、決まった範囲の周辺単語から単語分散表現を獲得していました。しかしながら、この方法では1単語で1つの意味しか表現することができず、多義語のように文脈で意味が変化する単語には対応できません。 例えば、「have」という単語は「I have a dog」だと「飼っている」という意味になり「I have breakfast」だと「食べる」という意味になります。多義語は意味ごとに周辺単語の種類も異なるため、それを1つの意味だけで捉えようとするのは困難です。 その解決方法の一つとして、文章に含まれる単語全体を使って単語分散表現を獲得する文脈理解を行います。文章全体を入力として単語分散表現を求めるので、文章ごとに異なる単語分散表現を獲得することができます。 次に紹介する「Tra

              汎用自然言語モデル「BERT」は、どんな仕組みで動いているのか? コンピュータの文脈理解について解説
            • 自称Transformer後継モデル「RetNet」マイクロソフトら開発、脳活動から音楽を生成するAI「Brain2Music」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

              2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第4回目は、Googleが開発した、昨今の生成AIの根幹をなすTransformerモデルの後継をうたう、マイクロソフトの技術など、5つの論文をまとめました。 生成AI論文ピックアップTransformer同等の性能でメモリ効率がよく高速なモデル「RetNet」 Microsoft含む研究者らが開発 Meta、商用利用可能な大規模言語モデル「Llama 2」発表 画像内の物体テレポーテーションAI「AnyDoor」 アリババ含む研究者らが開発 生成AIの処理が高速になる「FlashAttention-2」 米スタンフォード大の研究者が開発 脳活動から音楽を生成するAI

                自称Transformer後継モデル「RetNet」マイクロソフトら開発、脳活動から音楽を生成するAI「Brain2Music」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
              • Efficient Transformers: A Survey

                Transformer model architectures have garnered immense interest lately due to their effectiveness across a range of domains like language, vision and reinforcement learning. In the field of natural language processing for example, Transformers have become an indispensable staple in the modern deep learning stack. Recently, a dizzying number of "X-former" models have been proposed - Reformer, Linfor

                • RWKVを論文と実装から読み解く

                  RWKVとは 昨今GPTをはじめとしたtransformerベースの大規模言語モデルが流行しています.transformerの重要な要素であるSelf-Attentionは,長距離の依存関係を学習するできるというメリットがある一方で,シーケンス内のすべての要素と他のすべての要素との依存関係を計算するために,計算量とメモリ使用量がシーケンス長の二乗(つまり、トークンの数の二乗)に比例してしまうという問題があります. 一方でRNNベースのモデルは,メモリと計算要件の面で線形にスケールしますが、並列化と拡張性の制限からtransformerと同等の性能を達成することが困難です. そこで,transformerの効率的な並列学習と,RNNの効率的な推論の両方を兼ね備えたモデルとしてRWKV(Receptance Weighted Key Value)という新たなモデルアーキテクチャーが提案されまし

                    RWKVを論文と実装から読み解く
                  • Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説!

                    Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説! 2021.05.26 AI論文 学術研究, 画像処理, 自然言語処理 はじめに Google Brainが全結合層を基本としたニューラルネットワークがTransformerと同程度の精度を出すことができることを研究で明らかにしました。この結果、NLP(自然言語処理)だけではなく、最近ではCV(画像処理)の分野でもデファクトスタンダードになりつつあったTransformerをベースとしたモデル構成に再考が求められることになります。 なお、今回利用した図はすべて下記論文(「Pay Attention to MLPs」)から引用しております。 ●Transformer系の解説記事 Facebookチームが開発した画像分類にTransformerを利用した効率モデルDeiTを紹

                      Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説!
                    • アップロードしたファイルにaltを設定するプラグイン、またはTransformerのサンプル - Kickstart my heart

                      わが社の誇るクリエイティブデザイナのニペケさんに、「MTっていい加減イメージアップロードしたらAltくらい付けられるようになっててほしい」といわれたので、「それplu」ってことで作ってみた。 imagealtプラグイン Transformerの機能をほじくりまくっているので、よいサンプルにもなっていると思われる。しかし正規表現のよいサンプルにはなっていない。 追記:svnのサーバーがしょっちゅう落ちるので、ここにおきました。

                      • Transformerとは?AI自然言語学習の技術を解説

                        Transformerとは?AI自然言語学習の技術を解説 皆さん、「AI」や「深層学習モデル」という単語を耳にすることが最近増えてきたのではないかと思います。 しかし、その仕組みについて知りたいと感じても、「私には難しそう...」と敬遠してしまっている方も多いのではないでしょうか? 本記事ではAIの最新技術「Transformer」について、数式を用いず分かりやすく説明し、その応用についても紹介します! 本記事で概要を掴んでいただき、さらに詳しく知りたい方にはぜひ原論文をお読みいただければと思います! 目次 1. Transformerとは 2. 基本知識 3. Transfromerの構造 4. Transformerの発展モデル 5. Transformerの実装フレームワーク 6. Transformer事例紹介 7. クリスタルメソッドでのtransformerを用いた取り組み 8

                          Transformerとは?AI自然言語学習の技術を解説
                        • Googleが開発した画像分類タスクが可能な機械学習モデル「Vision Transformers」の仕組みとは?

                          Googleの機械学習モデル「Transformer」は、データを時系列に処理しなくても、自然言語などのデータを翻訳やテキスト要約することが可能で、ChatGPTなどの自然な会話が可能なチャットAIのベースとなっています。また、Transformerの手法を画像分野に応用したモデルが「Vision Transformer」です。ソフトウェアエンジニアのデニス・タープ氏が、「Vision Transformer」のコンポーネントがどのように機能し、データはどのような流れをたどるのか、ビジュアル化して解説しています A Visual Guide to Vision Transformers | MDTURP https://blog.mdturp.ch/posts/2024-04-05-visual_guide_to_vision_transformer.html 0:はじめに 前提として、T

                            Googleが開発した画像分類タスクが可能な機械学習モデル「Vision Transformers」の仕組みとは?
                          • 自然言語処理の必須知識 Transformer を徹底解説!

                            はじめに 自然言語処理(Natural Language Processing: NLP)の文脈から誕生したTransformerはそのモデルのシンプルさにもかかわらず、大きな成果をあげることに成功しました。そのため、その後NLPにブレイクスルーをもたらしたBERTやGPT-2などのモデルはTransformerをもとにつくられています。現在(2020年)では、DETRなど最新の物体検出モデルにも使われるようになり、Transformerは機械学習を学ぶ上では避けて通ることができないモデル・アイディアであるといえるでしょう。 今回は、近年の最重要モデルといえるTransformerについて発表論文「All you need is attention」を中心に、その誕生背景からモデル概念まで一から解説したいと思います。 なお、今回の内容は以下の二つに大別されます。 .Transformerが

                              自然言語処理の必須知識 Transformer を徹底解説!
                            • ViT時代の終焉?MetaFormerの論文紹介と実証実験 - Qiita

                              著者たちによるGitHubにはPoolFormerとして実装されているが、ここでは論文の趣旨を尊重してより抽象的なMetaFormerとして実装し、TokenMixingを変更できるようにしている。 def ChannelMLP(x, mlp_ratio, normalize, drop_path=0.0, prefix='' ): dense_kwargs = { 'kernel_initializer':'he_normal', 'bias_initializer': tf.keras.initializers.RandomNormal(stddev=1e-2), } in_shape = x.shape dim = in_shape[-1] mlp_dim = dim*mlp_ratio shortcut = x # norm x = normalize(x, name = pref

                                ViT時代の終焉?MetaFormerの論文紹介と実証実験 - Qiita
                              • Transformerのデータの流れを追ってみる - Qiita

                                全体図 画像中の「K」と「V」が逆になっております。申し訳ございません。 AttentionのMaskingの実装について Attentionのマスクの実装について悩んだので、Harvard NLPでのMaskの実装についてまとめておきます。 Transformerでは下の図のように3箇所のMulti-Head Attention(の中のScaled Dot-Product Attention)の中でMaskingが登場します。 EncoderでのSelf-Attention DecoderでのSelf-Attention DecoderでのSourceTarget-Attention Harvard NLPの実装では、1と3で使用するsrc_maskと2で使用するtgt_maskの2種類のマスクが用意されています。以下それぞれの説明です。 src_mask src_maskはEncode

                                  Transformerのデータの流れを追ってみる - Qiita
                                • Rethinking Attention with Performers

                                  Philosophy We strive to create an environment conducive to many different types of research across many different time scales and levels of risk. Learn more about our Philosophy Learn more

                                    Rethinking Attention with Performers
                                  • 【メタサーベイ】基盤モデル / Foundation Models

                                    cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/Read less

                                      【メタサーベイ】基盤モデル / Foundation Models
                                    • 画像を半分入れたら残りを自動生成 OpenAI、文章自動生成モデルの画像版「Image GPT」開発(ITmedia NEWS) - Yahoo!ニュース

                                      OpenAIの研究チームが開発した「Image GPT」は、画像生成を学習するためのフレームワークだ。昨年、同チームが発表した自然言語の文章自動生成モデル「GPT-2」を画像に適用したもの。OpenAIはイーロン・マスク氏が共同会長を務める米国のAI研究企業(非営利)。 ピカチュウもちゃんと補完 GPT-2は短い文章を入力すると、もっともらしい長文を自動的に作成してくれるモデルで、その精度の高さが一部で話題になった。モデルは800万のWebページのデータセットで訓練し、15億のパラメータを持つ48層のネットワークで構成。アルゴリズムは、RNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)の再帰や畳み込みを用いず、Attentionのみ使ったTransformerを採用している。 今回このモデルを画像で試したところ、画

                                        画像を半分入れたら残りを自動生成 OpenAI、文章自動生成モデルの画像版「Image GPT」開発(ITmedia NEWS) - Yahoo!ニュース
                                      • 2021/04/18 第6回全日本コンピュータビジョン勉強会「Transformer論文読み会」発表資料まとめ - takminの書きっぱなし備忘録 @はてなブログ

                                        ※(2021/04/19)shade-treeさんとlosnuevetorosさんの資料へのリンクが古かったため修正しました。 関東、名古屋、関西のコンピュータビジョン勉強会合同で開催している全日本コンピュータビジョン勉強会の6回目です。 今回は、Visionでも応用が進んできたTransformer縛りの論文読み会を行いました。 注目なテーマなだけに、たくさんの発表者/聴講者の方にご参加いただきました。ありがとうございます。 以下、リンク等をまとめます。 今回、発表資料の中には質疑応答用のSlackのみで公開されているものもありますのでご了承ください。 登録サイト kantocv.connpass.com Togetter togetter.com Youtube ※勉強会開始は動画開始から30分後 www.youtube.com 発表資料 発表者 論文タイトル 発表資料 Seitaro

                                          2021/04/18 第6回全日本コンピュータビジョン勉強会「Transformer論文読み会」発表資料まとめ - takminの書きっぱなし備忘録 @はてなブログ
                                        • Amazon.co.jp: トランスフォーマー デヴァイスレーベル ブロードキャスト operating USB HUB: Toy

                                          男の子向き 対象年齢 : 15歳から

                                            Amazon.co.jp: トランスフォーマー デヴァイスレーベル ブロードキャスト operating USB HUB: Toy
                                          • A Comprehensive Survey on Applications of Transformers for Deep Learning Tasks

                                            Transformer is a deep neural network that employs a self-attention mechanism to comprehend the contextual relationships within sequential data. Unlike conventional neural networks or updated versions of Recurrent Neural Networks (RNNs) such as Long Short-Term Memory (LSTM), transformer models excel in handling long dependencies between input sequence elements and enable parallel processing. As a r

                                            • Engadget | Technology News & Reviews

                                              iPad Air M2 hands-on: A big-screen iPad that doesn't break the bank

                                                Engadget | Technology News & Reviews
                                              • http://purisoku.com/archives/6242028.html

                                                • GitHub - clovaai/donut: Official Implementation of OCR-free Document Understanding Transformer (Donut) and Synthetic Document Generator (SynthDoG), ECCV 2022

                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                    GitHub - clovaai/donut: Official Implementation of OCR-free Document Understanding Transformer (Donut) and Synthetic Document Generator (SynthDoG), ECCV 2022
                                                  • Transformerとは何か? 「ChatGPT」や「Gemini」を生み出した超重要技術の進化

                                                    圧倒的な汎用性で世界中を席巻している「GPT」「PaLM」「LLaMA」といったLLM(大規模言語モデル)の根幹を成す技術が「Transformer」です。従来のディープラーニングが抱えていた大きな課題を解消し、ChatGPTなどのAIを生み出したことで落ち着いてきたかに思えたAIブームを爆発的に再加速させたこの重要技術は、いまだに発展を続けています。今回は、Transformerについて、分かりやすく解説していきます。 合同会社Noteip代表。ライター。米国の大学でコンピューターサイエンスを専攻し、卒業後は国内の一部上場企業でIT関連製品の企画・マーケティングなどに従事。退職後はライターとして書籍や記事の執筆、WEBコンテンツの制作に関わっている。人工知能の他に科学・IT・軍事・医療関連のトピックを扱っており、研究機関・大学における研究支援活動も行っている。著書『近未来のコア・テクノロ

                                                      Transformerとは何か? 「ChatGPT」や「Gemini」を生み出した超重要技術の進化
                                                    • トランスフォームする服のファッションショー(動画)

                                                      変形する服です。 前衛的なデザインで知られるイギリスのデザイナー、フセイン・チャラヤンの今回のラインアップは、なんと「変形する服」。仕組みはよく判らないんだけど、服が動いて別の形になります。 妙に有機的だから、何らかの化学反応を用いてるのかなあ? とにかく今までにないファッションなことは確かです。最後には服が全部帽子の中に吸い込まれてかなりウホッな状態になりますが、モデルさんは一切臆することなく黙って立っています。リスペクトですね。職場で見るときは気をつけてください。といってもあなたたちは見ちゃうんでしょうけど。 [Fresh Creation] ADDY DUGDALE(MAKI/いちる) 【関連記事】 世界初! ホログラムが出るファッションショー(動画) 【関連記事】 コンドームでファッションショー 【関連記事】 iPhoneファンのファッションチェック

                                                        トランスフォームする服のファッションショー(動画)
                                                      • CTranslate2でRinnaモデルをコンバートしてCPUや8GB GPUで動くようにする - きしだのHatena

                                                        CTranslate2はTransformerモデルをCPUやGPUで効率的に動かすライブラリです。 https://github.com/OpenNMT/CTranslate2 CTranslate2の機能のひとつにモデルの量子化があります。INT8で量子化すると雑に必要メモリが半分に。そしてCPUでも動かしやすくなるので、GPUなくてもLLMが試しやすくなります。 まあ、INT8を使うだけだと、モデルの読み込み時のfrom_pretrainedにload_in_8bit=Trueをつければいいのだけど、これがbitsandbytesというライブラリを使ってて、そしてbitsandbytesがWindowsに対応していない。*1 一応、有志がビルドしたDLLを使えば動くのだけど、めんどい。 https://qiita.com/selllous/items/fbaa2c3d2d504e43

                                                          CTranslate2でRinnaモデルをコンバートしてCPUや8GB GPUで動くようにする - きしだのHatena
                                                        • 【Mamba入門】Transformerを凌駕しうるアーキテクチャを解説(独自の学習・推論コード含む) - Qiita

                                                          はじめに 薄紅色の柔らかなそよ風が恋しい今日この頃皆様いかがお過ごしでしょうか? はじめまして。 某総合電機メーカ・某設計部門(機械設計)に属する 六花 牡丹(りっか ぼたん)と申します。 とある事情でこちらのサイトに不定期で記事を載せることがございます。 本記事ではMambaに関するアルゴリズム・数学的な原理に加え、独自に開発した学習・推論コードを示すことで基礎から応用までをカバーしています。 拙筆ではございますが、皆様のお役に立つことを心から願っております。 未熟者故、記事中にて誤記・欠落などが見られることがございます。 もし発見しました場合には、コメント等にてご指摘いただきますようお願い申し上げます。 私は記事を一般に周知する手段を有していないため、もし記事が有用であると判断された場合には、X(旧Twitter)等で拡散していただけますと幸いです。 2024/02/13 追記: X(

                                                            【Mamba入門】Transformerを凌駕しうるアーキテクチャを解説(独自の学習・推論コード含む) - Qiita
                                                          • Engadget | Technology News & Reviews

                                                            Hands-on with the new iPad Pro M4: Absurdly thin and light, but the screen steals the show

                                                              Engadget | Technology News & Reviews
                                                            • CV勉強会.pdf

                                                              ログイン読み込んでいます…

                                                                CV勉強会.pdf
                                                              • GitHub - yandex/YaLM-100B: Pretrained language model with 100B parameters

                                                                YaLM 100B is a GPT-like neural network for generating and processing text. It can be used freely by developers and researchers from all over the world. The model leverages 100 billion parameters. It took 65 days to train the model on a cluster of 800 A100 graphics cards and 1.7 TB of online texts, books, and countless other sources in both English and Russian. Training details and best practices o

                                                                  GitHub - yandex/YaLM-100B: Pretrained language model with 100B parameters
                                                                • 画像アップロード時に alt 属性を追加するプラグイン (Transformer) - 2xup

                                                                  2006-07-03T16:08:36+09:00 アップロードしたファイルにaltを設定するプラグイン、またはTransformerのサンプル(Kickstart my heart) Movable Type でファイルアップロードの時、alt 属性を任意に入力できたら…。御苑塾や CSS Nite でもリクエストいただいていた事もあり、fumiakiy 先生に金曜日のオフタイムにほんのり話してみたら『それ plugin でいいんじゃね?』ということで、タイトルもなんとなくパーフリっぽく、さっそく作ってくれました。Movable Type 3.3 から追加された機能 Transformer を利用してファイルアップロードページにフィールドを追加してほげほげして…。って Transformer テラスゴス! これまで Movable Type でファイルのアップロードを行った際、alt 属

                                                                  • GitHub - google-deepmind/alphafold: Open source code for AlphaFold.

                                                                    This package provides an implementation of the inference pipeline of AlphaFold v2. For simplicity, we refer to this model as AlphaFold throughout the rest of this document. We also provide: An implementation of AlphaFold-Multimer. This represents a work in progress and AlphaFold-Multimer isn't expected to be as stable as our monomer AlphaFold system. Read the guide for how to upgrade and update co

                                                                      GitHub - google-deepmind/alphafold: Open source code for AlphaFold.
                                                                    • ABEJA GPTモデルにおけるアーキテクチャの工夫 - ABEJA Tech Blog

                                                                      1. はじめに 2. 先行研究からの学び 3. 前提 4. アーキテクチャ変更候補 活性化関数の変更 (SwishGLU) Transformer layerの並列化 biasパラメータ除去 Input-Output Embeddingの共有 (Weight tying) 5. 小規模モデルでの実験 実験設定 Transformer layerの並列化 SwishGLUの適用 Bias parameterの除去 bias削除の実験 最初もしくは最後のbiasだけを残す Input-Output Embeddingの共有 (Weight tying) 6. 中規模モデルでの実験 実験設定 モデルサイズでの比較 Shared Input output embeddings (weight tying) Transformer layerの並列化 SwishGLUの適用 7. 13Bパラメーター

                                                                        ABEJA GPTモデルにおけるアーキテクチャの工夫 - ABEJA Tech Blog
                                                                      • 【PyTorch】BERTの使い方 - 日本語pre-trained modelsをfine tuningして分類問題を解く - Qiita

                                                                        【PyTorch】BERTの使い方 - 日本語pre-trained modelsをfine tuningして分類問題を解くPython自然言語処理機械学習PyTorchbert はじめに 自然言語処理の様々なタスクでSOTAを更新しているBERTですが、Google本家がGithubで公開しているものはTensorflowをベースに実装されています。 PyTorch使いの人はPyTorch版を使いたいところですが、PyTorch版は作っていないのでHuggingFaceが作ったやつを使ってね、ただし我々は開発に関与していないので詳しいことは彼らに訊いてね!とQAに書かれています。 HuggingFace製のBERTですが、2019年12月までは日本語のpre-trained modelsがありませんでした。 そのため、英語では気軽に試せたのですが、日本語ではpre-trained mod

                                                                          【PyTorch】BERTの使い方 - 日本語pre-trained modelsをfine tuningして分類問題を解く - Qiita
                                                                        • Transformer 機能を利用したプラグインで管理画面をカスタマイズ

                                                                          2006-07-03T20:30:34+09:00 画像アップロード時に alt 属性を追加するプラグイン (Transformer) - 2xup imagealt プラグインの知らせのあと、Transformer を使えるように勉強していたところ、ちょうど『カテゴリーの出力先を指定できるようになったのは良いのだけれど、そのフィールドのラベルが出力ファイル名なのはねえ。』という意見があったので、それ plu ということで練習を兼ねて作ってみました。実は管理画面のテンプレートを書き換えて lib/MT/L10N/ja.pm に文言を追加すれば済むのだけれど、そういう変更はなんかチョット元のファイルを弄ってしまうのでアレですし…。そもそも Movable Type のコード自体をカスタマイズしてしまっているばかりにアップグレードが大変に感じてしまうのも嫌なので。あわせて 3.3 からプラグイ

                                                                          • プーリング層だけでも充分!?衝撃の画像認識モデルMetaFormerを解説! - Qiita

                                                                            オミータです。ツイッターで人工知能や他媒体の記事など を紹介していますので、人工知能のことをもっと知りたい方などは @omiita_atiimoをご覧ください! 他にも次のような記事を書いていますので興味があればぜひ! 画像認識の大革命。AI界で話題爆発中の「Vision Transformer」を解説! 畳み込み+Attention=最強?最高性能を叩き出した画像認識モデル「CoAtNet」を解説! 帰ってきたResNet!最新の画像認識モデル「ResNet-RS」を解説! 画像生成も畳み込まない!TransformerによるGAN「TransGAN」誕生&解説! 【決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- Vision Transformer(以下、ViT)はなぜ高い性能を叩き出せるのでしょうか。「そんなのAttentionのおかげに決まっ

                                                                              プーリング層だけでも充分!?衝撃の画像認識モデルMetaFormerを解説! - Qiita
                                                                            • GitHub - openai/transformer-debugger

                                                                              Transformer Debugger (TDB) is a tool developed by OpenAI's Superalignment team with the goal of supporting investigations into specific behaviors of small language models. The tool combines automated interpretability techniques with sparse autoencoders. TDB enables rapid exploration before needing to write code, with the ability to intervene in the forward pass and see how it affects a particular

                                                                                GitHub - openai/transformer-debugger
                                                                              • Azure OpenAI Service モデル - Azure OpenAI

                                                                                GPT-4 Turbo GPT-4 Turbo は、大規模なマルチモーダル モデル (テキストまたは画像の入力を受け入れ、テキストを生成します) であり、OpenAI の以前のモデルよりも高い精度で困難な問題を解決できます。 GPT-3.5 Turbo や以前の GPT-4 モデルと同様に、GPT-4 Turbo はチャット用に最適化されており、従来の入力候補タスクでも適切に動作します。 GPT-4 Turbo の最新の GA リリースは次のとおりです。 gpt-4バージョン:turbo-2024-04-09 これは、次のプレビュー モデルに代わるものです。 gpt-4バージョン:1106-Preview gpt-4バージョン:0125-Preview gpt-4バージョン:vision-preview OpenAI と Azure OpenAI GPT-4 Turbo with Visi

                                                                                  Azure OpenAI Service モデル - Azure OpenAI
                                                                                • 論文読みメモ: Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting - クッキーの日記

                                                                                  2021-02-14 3枚目の絵を修正しました。以下の論文を読みます。私の誤りは私に帰属します。お気付きの点がありましたらご指摘いただけますと幸いです。Haoyi Zhou, Shanghang Zhang, Jieqi Peng, Shuai Zhang, Jianxin Li, Hui Xiong, Wancai Zhang. Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting. arXiv preprint arXiv:2012.07436, 2020. [2012.07436] Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting GitHub - zhouhaoyi

                                                                                    論文読みメモ: Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting - クッキーの日記