並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 400 件 / 501件

新着順 人気順

lstmの検索結果361 - 400 件 / 501件

  • Image to LaTeX

    Take a photo of a formula and this model will convert it to LaTeX code. Made by Robert Mitson using Weights & Biases

      Image to LaTeX
    • Layer Normalizationを理解する

      今回は自然言語処理で一つのブレイクスルーとなったBERTについて解説したいと思います。 現時点で、BERTは極めて重要なモデルですので是非しっかり理解していただければと思います。 もちろん新しい仕組み ... Batch Normalizationとは ではまず、Batch Normalizationについて簡単に説明したいと思います(詳しくはこちら『Batch Normalizationを理解する』)。 Batch Normalizationは2015年に“Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift”というで最初に提案された仕組みになります。 https://arxiv.org/abs/1502.03167 タイトルにある通り、“Internal

        Layer Normalizationを理解する
      • Attentionを理解するためにRNN、Word2Vec、LSTM、Seq2Seq、Attentionの順に整理してみた - Qiita

        Attentionを理解するためにRNN、Word2Vec、LSTM、Seq2Seq、Attentionの順に整理してみた自然言語処理word2vecRNNAttention Attentionを理解するために、学習した事を整理します。 参考文献 ①「深層学習による自然言語処理」 講談社  坪井祐太 海野裕也 鈴木潤 著 ②「ゼロから作るDeep Learning2 自然言語処理編」 オライリー 斎藤康毅 著 ■RNN(recurrent neural network) 文献①によると、再帰ニューラルネットワーク(RNN)は可変長の入力列を扱うことに優れたネットワーク構造で、前の時刻の隠れ状態ベクトルと現時刻の入力ベクトル(または下層の隠れ状態ベクトル)を使って、現在の隠れ状態ベクトルを更新するとのこと。 う~ん、分かりにくいので絵にしてみました。 上図のxは入力、hは隠れ層です。時刻tで

          Attentionを理解するためにRNN、Word2Vec、LSTM、Seq2Seq、Attentionの順に整理してみた - Qiita
        • Siamese NetworkによるDeep Metric Learningで学習データにない画像のクラスを予測する - Qiita

          最近、Meta-Learningについて勉強したのでMeta-Learningの1つの手法であるMetric Learningについて記事をかいてみました。Metric Learningの基本的な手法であるSiamese NetworkをKerasとPytorchで実装して簡単な精度評価まで行いました。 Kerasの実装はシンプルなSiamese Networkを実装したもので、Pytorchの実装は以下の論文のアーキテクチャを実装し、論文と同様に精度評価してみたものになります。 Siamese Neural Networks for One-shot Image Recognition Meta-Learningとは? Meta-Learning: Learning to Learn Fast より引用 Meta-learning, also known as “learning to

            Siamese NetworkによるDeep Metric Learningで学習データにない画像のクラスを予測する - Qiita
          • 生成AIと著作権問題についての一考察

            こちらの記事はDIVXアドベントカレンダー2023の10日目の記事です。 こんにちは。DIVXエンジニアの山坂巧です。今回のブログでは、近年注目を集めている生成AIと著作権について、深掘りしてみようと思います。生成AIがどのように動作し、それが著作権法とどう絡み合っているのか、また、こうしたテクノロジーがもたらす可能性と法律的課題についても考察します。皆様の興味や議論のきっかけになれば幸いです。それでは、早速進めていきましょう。 序章:AIの変遷と現在の位置付け歴史を通じて、人間の「思考」を実現する機械、すなわち人工知能(AI)の可能性と挑戦は尽きることがありません。始まりは単なる「自動化された機械」でしたが、現在のAIはまるで「思考する機械」のように進化し、特に注目されている領域が「生成AI」となっています。 「生成AI」は、特定のパターンを学習し、新しい作品や結果を生成するAIの一種で

              生成AIと著作権問題についての一考察
            • 《日経Robotics》注意機構をLSTMで置き換え最高精度、立教大らが意表を突く画像認識DNN

              画像など空間方向に広がったデータの認識はCNN。言語といった系列データの処理にはLSTM。この常識は既に過去のものになった。状況を大きく変えたのが、2017年に登場したTransformerである。言語処理で高い成果を上げてLSTMを代替した上に、2020年には画像認識に利用できるVision Transformer(ViT)が登場。CNNが主流だった領域でも地歩を固めつつある。 ところが、この構図が再び揺らいでいる。ViTの中核的な要素である自己注意機構を別の方式で置き換えても、同等以上の画像認識性能を発揮できることがわかってきたのである。 TransformerやViTを開発したGoogle自身が、自己注意機構を多層パーセプトロン(MLP)に切り替えた「MLP-Mixer」を2021年に発表。これを皮切りに、MLPの使い方を工夫した各種の方式や、近くにあるデータを平均するプーリングで十

                《日経Robotics》注意機構をLSTMで置き換え最高精度、立教大らが意表を突く画像認識DNN
              • Deep Learning Based OCR for Text in the Wild

                We live in times when any organization or company to scale and to stay relevant has to change how they look at technology and adapt to the changing landscapes swiftly. We already know how Google has digitized books. Or how Google earth is using NLP (or NER) to identify addresses. Or how it is possible to read text in digital documents like invoices, legal paperwork, etc. But how does it work exact

                  Deep Learning Based OCR for Text in the Wild
                • 深層学習による自然言語処理の発展の歴史を振り返る!包括的なサーベイ論文の紹介!

                  3つの要点 ✔️ 深層学習による自然言語処理の発展を振り返る包括的なサーベイ論文の紹介 ✔️ 自然言語処理の主なタスクに対して、二回に分けてどのように深層学習が用いられているか紹介 ✔️ 特徴表現・アーキテクチャ・基礎的なタスク・テキスト分類・情報抽出・感情推定を紹介 Natural Language Processing Advancements By Deep Learning: A Survey written by Amirsina Torfi, Rouzbeh A. Shirvani, Yaser Keneshloo, Nader Tavvaf, Edward A. Fox (Submitted on 2 Mar 2020 (v1), last revised 4 Mar 2020 (this version, v2)) Comments: Published by arXiv

                    深層学習による自然言語処理の発展の歴史を振り返る!包括的なサーベイ論文の紹介!
                  • Neural Networks Emulate Any Guitar Pedal For $120

                    It’s a well-established fact that a guitarist’s acumen can be accurately gauged by the size of their pedal board- the more stompboxes, the better the player. Why have one box that can do everything when you can have many that do just a few things? Jokes aside, the idea of replacing an entire pedal collection with a single box is nothing new. Your standard, old-school stompbox is an analog affair,

                      Neural Networks Emulate Any Guitar Pedal For $120
                    • AIレコメント | Octoparse

                      情報が爆発的に増加している今日、ニュースレコメンドエンジンは、多くのニュースサイトやアプリにとって重要な技術となっています。ニュース推薦技術の適用は、情報過多の問題を改善するだけでなく、使用体験を向上させ、ユーザーの粘着性と定着性も向上させます。 しかし、ニュースメディアのプラットフォームには、ニュースデータを効率的に獲得し整理するだけではなく、ニュースコンテンツを体系的に分類したり、高度なコンテンツ推薦アルゴリズムの整備と膨大なユーザーデータを活用することによって、ユーザーが興味を持っているコンテンツをユーザーのホームページに推薦します。 レコメンデーション領域で代表となる企業はByteDanceです。この会社は近年Tiktokの流行に伴って、世界で多くの人に知られています。実は、Tiktokの他に、この会社が開発した「BuzzVideo」「VigoVideo」なども近年急激な成長を遂げ

                      • 日本語テキストのトピック抽出1 基礎編 - Qiita

                        Aidemy 2020/10/30 はじめに こんにちは、んがょぺです!バリバリの文系ですが、AIの可能性に興味を持ったのがきっかけで、AI特化型スクール「Aidemy」に通い、勉強しています。ここで得られた知識を皆さんと共有したいと思い、Qiitaでまとめています。以前のまとめ記事も多くの方に読んでいただけてとても嬉しいです。ありがとうございます! 今回は、日本語テキストのトピック抽出の1つ目の投稿になります。どうぞよろしくお願いします。 *本記事は「Aidemy」での学習内容を「自分の言葉で」まとめたものになります。表現の間違いや勘違いを含む可能性があります。ご了承ください。 今回学ぶこと ・自然言語処理における深層学習 ・Embedding,RNN,LSTM,Softmaxなど 自然言語処理における深層学習 ・自然言語処理の中で使われる深層学習には、機械翻訳や自動要約、質問への自動応

                          日本語テキストのトピック抽出1 基礎編 - Qiita
                        • PyTorchで日本語BERTによる文章分類&Attentionの可視化を実装してみた - Qiita

                          目次 本記事はPyTorchを使って自然言語処理 $\times$ DeepLearningをとりあえず実装してみたい、という方向けの入門講座になっております。以下の順番で読み進めていただくとPyTorchを使った自然言語処理の実装方法がなんとなくわかった気になれるかもしれません。 PyTorchを使ってLSTMで文章分類を実装してみた PyTorchを使ってLSTMで文章分類を実装してみた(バッチ化対応ver) PyTorchでSeq2Seqを実装してみた PyTorchでAttention Seq2Seqを実装してみた PyTorchのBidirectional LSTMのoutputの仕様を確認してみた PyTorchでSelf Attentionによる文章分類を実装してみた PyTorchで日本語BERTによる文章分類&Attentionの可視化を実装してみた ←イマココ はじめに

                            PyTorchで日本語BERTによる文章分類&Attentionの可視化を実装してみた - Qiita
                          • 機械学習モデルのパラメータ設定を便利にするツールを作った - Qiita

                            機械学習等のアプリケーションの設定を書く際に便利なツール colt を作りました. 簡単に紹介すると colt は AllenNLP のように設定を書くためのツールです. タイトルには "機械学習" と書きましたが機械学習に限らず多くのアプリケーションの設定に利用できると思います. はじめに 機械学習モデルを利用して実験する際, ハイパーパラメータを管理するためにargparse や Hydraなどが使われているのをよく目にします. こうした既存のパラメータ管理ツールの多くで問題になるのはモデルを大きく変更した際にパラメータの読み込み処理も変更する必要があることだと思います. 例えば(すごく強引な例ですが), scikit-learn の SVC を使うつもりで argparse に C, kernel, class_weight 等のパラメータを読む設定を書いていたけど, RandomF

                              機械学習モデルのパラメータ設定を便利にするツールを作った - Qiita
                            • Transformerで英日翻訳 - Qiita

                              TransformerとCloud TPUを使って英語を日本語に翻訳するニューラル翻訳モデルを訓練してみたので紹介します。 前置き 3年前の2016年にTensorFlowとGPUインスタンスで英日翻訳という記事を書きましたが、当時の機械翻訳はLSTMにAttentionを追加したモデルが主流で、ニューラル翻訳のモデルもこれから複雑化の一途を辿るのだろうなと思っていました。 しかし、最近久しぶりにニューラル翻訳のサーベイをしてみて、良い意味で期待を裏切られました。2017年に登場したTransformerでは、LSTMを完全に廃止し、Attentionのみで高精度かつ高速な翻訳を可能にしました。2018年のWMT(機械翻訳のトップ会議)のShared Taskではほぼ全ての参加チームがTransformerベースのモデルに切り替えており、普及のスピードに驚きました。 Attention i

                                Transformerで英日翻訳 - Qiita
                              • SHAP値で解釈する前にPermutation ImportanceとPDPを知る – MIIDAS Science Blog

                                https://www.kaggle.com/learn/machine-learning-explainability 今回はこれをやっていきます。先に一言で言うと機械学習のfitを説明しよう、と言うことです。言い換えるとモデルがデータをどう扱ったか解釈しよう、と言うことです。なんとなくまとめを先に行っておくと次の通りです。 ブラックボックス 機械学習も僕の知っている2年前に比べて色々と賑やかになってきました。決定木だとLightGBMやXGBOOSTありますし、ニューラルネットだとStacked LSTMやGANとかですねえ。そんな優秀なアルゴリズム達をどうやって理解すればいいんだろう?と言うのがブラックボックス問題です。例えば「ニューラルネットで学習させたけどこの重みの意味って、、、?」とか「この入力と出力の間の関係は、、?」とか「この変数って予測にプラスに働いたのか、、、?」などで

                                • インターン生がストリーミングEnd-to-End音声認識のレスポンス高速化に取り組んだ話

                                  ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは。インターン生の齋藤主裕です。 この記事では私がヤフーの音声認識チームで2週間のインターンシップを行った際に取り組んだ内容について紹介します。インターンシップでは主にストリーミングEnd-to-End音声認識のレスポンスを高速化する技術のうち、国際学会で最近発表された技術の追試を行いました。以下ではその技術の概要と得られた結果、およびインターンシップの感想について書きます。 ストリーミングEnd-to-End音声認識とは ニューラルネットワークを使って音声情報から直接発話文字列を出力する手法をEnd-to-End音声認識といいます。End-to-End音声認識は従来手法(ニューラルネットワークと隠れマルコフモデルのハイブ

                                    インターン生がストリーミングEnd-to-End音声認識のレスポンス高速化に取り組んだ話
                                  • [TensorFlow/Keras] 好きな構造のRNNを組み立てるまでの道のり - Qiita

                                    はじめに 時系列データを入力にとり、今の時刻の入力に加えて前の時刻の「状態」も使って出力を決めるニューラルネットワークの形態に RNN (Recurrent Neural Network) があります。LSTM(Long Short-Term Memory, 長・短期記憶)が有名でしょうか。 時系列データとは、動画やテキストといった、列全体として意味を持つようなデータです。普通のニューラルネットワークは画像や文字といった、形式の決まったある1つのデータを入力に取るわけですが、それらが並んだ動画やテキストを扱うときには、個々の画像(フレーム)や文字はもちろん、その並びにも大きな意味がありますね。このようなデータをうまく扱う構造がRNNというわけです。 ただ普通の全結合層などと違って正直とっつきにくいと思います。私もそうです。 というわけで、まずはRNNが何をするものかを理解して、次に前の時刻

                                      [TensorFlow/Keras] 好きな構造のRNNを組み立てるまでの道のり - Qiita
                                    • ねこでもわかるWord2Vec入門 - Qiita

                                      モチベーション 初めまして、pyaNottyと申します。初投稿です。 最近、MeCabやらkerasやらに触れる機会があり、せっかくなので何か自然言語処理にチャレンジしたいなと思いました。自然言語処理、とくにLSTMなどを用いた文章生成なんかでは、Word2Vecによる分散表現が利用されることが多いと聞きます。今回は、LSTMモデルに食わせることができる単語の分散表現を、Word2Vecで作ってみようと思います。 ねこ並みの知能しか持ち合わせていない筆者でも、なんとかできるくらい簡単です。 Word2Vecとは 単語をベクトルに変換するためのモデルのことです。 何か文章を使ってLSTMモデルとかを訓練する場合、生の文字列をモデルに食わせることはできません。ですので、文章を何らかの数値表現に変換する必要があります。例えば、「これはペンです」という文章の場合、['これは', 'ペン', 'です

                                        ねこでもわかるWord2Vec入門 - Qiita
                                      • 深層学習で未来予測が変わる

                                        3つの要点 ✔️ 時系列データの予測について深層学習がどのように適用されているか概観します ✔️ 新しいトレンドとしてハイブリッドモデルを説明します ✔️ さらなるアプローチとして解釈性、事実と異なる予測に関連する手法を説明します Time Series Forecasting With Deep Learning: A Survey written by Bryan Lim, Stefan Zohren (Submitted on 28 Apr 2020 (v1), last revised 27 Sep 2020 (this version, v2)) Comments: Accepted by Philosophical Transactions of the Royal Society A 2020 Subjects: Machine Learning (stat.ML); Mac

                                          深層学習で未来予測が変わる
                                        • 0.数秒後の動きを未来予測する研究4本

                                          動きある物体に対して、0.数秒後にどうのような動きをするのかを予測することができます。相手の動きを0.数秒はやく知ることができれば何ができるでしょうか。飛んでくるボールを0.数秒はやく知ることができれば何ができるでしょうか。今回は、そんな未来予測に関する研究4本を厳選しご紹介します。 機械学習を用いて0.5秒後の人間の動きをリアルタイムに推定する体動予測システム「Computational Foresight」 論文:Computational Foresight: Forecasting Human Body Motion in Real-time for Reducing Delays in Interactive System Yuuki Horiuchi¹, Yasutoshi Makino¹, Hiroyuki Shinoda¹ ¹The University of Tokyo,

                                            0.数秒後の動きを未来予測する研究4本
                                          • 【Deep Learning研修(発展)】系列データモデリング (RNN / LSTM / Transformer) 第1回「イントロダクション」

                                            【Deep Learning研修(発展)】( https://www.youtube.com/playlist?list=PLbtqZvaoOVPA-keirzqx2wzpujxE-fzyt )はディープラーニング・機械学習に関する発展的な話題を幅広く紹介する研修動画シリーズです。Neural Network Consoleチャンネル(https://www.youtube.com/c/NeuralNetworkConsole/ )でもディープラーニングに関するより基礎的な内容の解説動画を公開しておりますので、ぜひそちらも御覧ください。 本動画は「系列データモデリング」の第1回の動画です。系列データとは何か、どのような応用事例があるのか、そして本研修で扱う内容について説明しています。 [スライド4] Found in translation: More accurate, fluen

                                              【Deep Learning研修(発展)】系列データモデリング (RNN / LSTM / Transformer) 第1回「イントロダクション」
                                            • 時系列の予測モデルを比較してみた

                                              2021/9/24 salesforce の Merlionについて追記 2021/10/9 TimeSeriesSplit(), PytorchのLSTMについて続編を書いた 時系列データの予測モデルである、Prophet、sktime、LSTM と lightGBMを使った時系列予測を比較してみました。 コードはGoogle Colabがこちら、GitHubがこちら。 ただし途中のグラフで使用しているドロップボックスについては Google Colab 専用の機能になりますのでご留意ください。 細かいコードは割愛しています。 Google Colabでドロップボックス等の機能を使う方法についてはこちら。 なお、使っているデータセットはアメリカンフットボールプレーヤのPayton ManningのWikiアクセス数のデータだそうです。 Merlion Merlion は Salesfor

                                                時系列の予測モデルを比較してみた
                                              • VSCodeのおすすめ設定・拡張機能

                                                VSCodeの設定 本節では,全て⌘ + ,でSettingsを開いて検索することで設定をしていきます. 保存時に行末の余分なスペースを削除する 検索窓にfiles.trimTrailingWhitespaceと検索し有効にします. 保存時にファイル末尾に改行を入れる 検索窓にfiles.insertFinalNewlineと検索し有効にします. 汎用的な拡張機能 本節では,プログラミング言語にとらわれない汎用的なVSCodeの設定及び拡張機能を紹介します. Chose A License VSCodeで GitHub Licenses API を利用してプロジェクトのライセンスを簡単に作成することができます. 公式ドキュメントはこちら↓ Error Lens エラー表示を問題タブではなくインライン表示しハイライトをしてくれる便利な拡張機能です. 公式ドキュメントはこちら↓ flake8と

                                                  VSCodeのおすすめ設定・拡張機能
                                                • 【Pytorch】nn.Embeddingの使い方を丁寧に - gotutiyan’s blog

                                                  はじめに 本記事では,Pytorchの埋め込み層を実現するnn.Embedding()について,入門の立ち位置で解説します. ただし,結局公式ドキュメントが最強なので,まずはこちらを読むのをお勧めします. pytorch.org 対象読者は, 他のモデルの実装記事見ても,全人類nn.Embeddingをサラッと使ってて何だこれ〜〜って人 nn.Embeddingの入出力のイメージが分からない人 公式ドキュメント(英語だし)分からね〜〜という人 目次 はじめに 目次 nn.Enbeddingの入出力 nn.Embeddingの宣言 とりあえず1単語埋め込む 複数単語を一気に埋め込む ミニバッチ化してたらどうなるの padding 同一バッチ内での系列長とpadding padding_idxオプション おわりに paddingに関する個人的な実験 padding_idxを負にしたら? pad

                                                    【Pytorch】nn.Embeddingの使い方を丁寧に - gotutiyan’s blog
                                                  • AWS認定 機械学習 合格しました - Jのブログ

                                                    いやー、難しかったー。認定試験合格できたけど、奥が深いので実践できるかというと別かなって印象です。10年インフラエンジニアとしてやってきましたが、統計学とかの知識も必要だったり、機械学習アルゴリズムの理解、アルゴリズムの評価、トレーニングデータのチューニングなどなど、今まで経験したことがないジャンルだったので言葉もわからないし、考え方もわからないって感じで、新卒時代を彷彿させる時間を過ごしました。でも、これが楽しんですよね。エンジニアだし!新しいジャンルのことに触れる機会を得られてかなりいい試験でした。もっと実践でやってきたい。 やったこと [ ] sagemakerのドキュメント読む [ ] ML [ ] 触る [x] データ変換リファレンス https://docs.aws.amazon.com/ja_jp/machine-learning/latest/dg/data-transfo

                                                      AWS認定 機械学習 合格しました - Jのブログ
                                                    • PythonとAI~ドル円為替の時系列解析SARIMAvsLSTM~ - Qiita

                                                      はじめに 筆者はPythonならびにAIの初学者で、Aidemy Premiumの「データ分析3ヶ月コース」を受講しながらデータ分析について学習をしています。 講座内で学習した知識をもとに自身で時系列解析の実装・考察を行っていきます。 自己紹介 ・2人目の子供を妊娠中の30代女性 現職は損害保険会社勤務でプログラミングやAIについての知識ゼロから、 出産までの休暇期間を利用して学習を行っています。 家族が増えることに伴い、より柔軟な働き方にチェンジしたいと思い、 自身の興味関心・やりたいことは何かを考えた結果、 AI学習やデータ分析にたどり着きました。 今回は受講の修了要件の1つである成果物としてこのブログを執筆しています。 受講修了後も今後のキャリアチェンジのために、産後もコツコツと継続して学習を行っていく予定です。 テーマと分析方法 普段子供の服を海外から個人輸入することがあったり、

                                                        PythonとAI~ドル円為替の時系列解析SARIMAvsLSTM~ - Qiita
                                                      • Pythonによる異常検知 | Ohmsha

                                                        扉・はじめに・目次 第0章 機械学習と異常検知 0.1 異常検知とは? 1 異常検知の定義 2 異常検知におけるデータの分類と手法の選択 3 異常検知の活用例 0.2 本書の意義と構成 第1章 機械学習と統計解析の基本モデル 1.1 機械学習と誤差関数 1 教師あり学習と教師なし学習 2 誤差δと誤差関数L 3 バイアス(平均)とバリアンス(分散) 4 誤差関数と異常検知 1.2 機械学習と統計解析の比較 1 類似性 2 相違性 1.3 教師あり学習──分類と回帰 1 回帰とはなにか 2 分類とはなにか 3 統計モデルと代表的なアルゴリズム 4 機械学習モデルと代表的なアルゴリズム 1.4 教師なし学習──特徴抽出・クラスタリング・次元削減 1 次元削減とクラスタリングの等価性 2 1重行列による次元削減(主成分分析) 3 多重行列による次元削減 4 統計分布による次元削減(t-SNE)

                                                          Pythonによる異常検知 | Ohmsha
                                                        • 科学知見と機械学習の統合

                                                          3つの要点 ✔️ 科学モデル、機械学習モデルの欠点を補い、相乗効果を出す統合モデルのレビュー ✔️ 物理シミュレータに対して、計算負荷を低減し、精度も向上するということが多くのモデルで確認 ✔️ 最近急速に発展しており、まだまだ成長の余地を残す Integrating Scientific Knowledge with Machine Learning for Engineering and Environmental Systems written by Jared Willard, Xiaowei Jia, Shaoming Xu, Michael Steinbach, Vipin Kumar (Submitted on 10 Mar 2020 (v1), last revised 23 Jul 2021 (this version, v5)) Comments: Accepted b

                                                            科学知見と機械学習の統合
                                                          • ストックマークが公開した言語モデルの一覧と振り返り

                                                            こんにちは、Machine Learning部門の森長と申します。 Machine Learning部門は、プロダクト適用を目指した基礎研究&基礎研究のプロダクト適用の二軸を担当しています。基礎研究では、言語モデルの作成、文章のカテゴリ分類・クラスタリング、要約の検証等、プロダクトへの適用を見据えて研究テーマを設定しています。また、自然言語処理の盛り上がりに少しでも貢献できればと考え、言語モデルの公開を行っていますので、もしよろしければ使ってみてください。 今回は、弊社で公開している言語モデルについて書いていきます。 言語モデルとは言語モデルにも色々な種類のモデルがあり、一口でこれというのは難しいですが、簡単に言うとすると、「単語列に対して確率を計算するモデル」です。 厳密には各言語モデルで目的が違うため、呼称が少しずつ異なりますが、本投稿では言語モデルという表現で統一させていただきます。

                                                              ストックマークが公開した言語モデルの一覧と振り返り
                                                            • Introducing RWKV - An RNN with the advantages of a transformer

                                                              ChatGPT and chatbot-powered applications have captured significant attention in the Natural Language Processing (NLP) domain. The community is constantly seeking strong, reliable and open-source models for their applications and use cases. The rise of these powerful models stems from the democratization and widespread adoption of transformer-based models, first introduced by Vaswani et al. in 2017

                                                                Introducing RWKV - An RNN with the advantages of a transformer
                                                              • Amazon SageMaker による動画内のスポーツハイライトの自動検出 | Amazon Web Services

                                                                Amazon Web Services ブログ Amazon SageMaker による動画内のスポーツハイライトの自動検出 この記事は、”Automatically detect sports highlights in video with Amazon SageMaker” を翻訳したものです。 動画からハイライトを抽出するのは、時間がかかり、複雑なプロセスです。この記事では、機械学習(ML)ソリューションを使用して、オリジナルの動画コンテンツからハイライト動画を自動的に作成する、スポーツイベントのインスタントリプレイに関する新たな取り組みを紹介します。ハイライト動画はダウンロード可能で、ユーザーが Web アプリで継続して視聴することができます。 Amazon SageMaker を使用して、ノーカットのスポーツ動画 (今回はサッカーの試合) を分析し、元の動画のハイライト (ペナ

                                                                  Amazon SageMaker による動画内のスポーツハイライトの自動検出 | Amazon Web Services
                                                                • 【強化学習】DQNを解説・実装 - Qiita

                                                                  この記事は自作している強化学習フレームワーク SimpleDistributedRL の解説記事です。 DQNについては昔記事を書いていますが、知識も更新されているので改めて書いています。 前:Q学習 次:Rainbow DQN(Deep Q-Networks) 略称がネットスラングと重なったのは偶然らしいです。 また、時代背景的に初めて強化学習に深層学習(ニューラルネットワーク)の技術を採用して成果を出したことで有名になった手法となります。 Q学習の一番の問題点は、状態が離散かつ有限状態でしか表現できなかったことです。 例えば以下のマリオの位置を考えます。 マリオの座標が 1.1 と 1.11 はほぼ同じ状態とみて問題ありません。 しかし、Q学習ではこれが別の状態と認識されてしまいます。 こういう連続値は状態数が無限になるのでQ学習では学習ができません。 そこでQテーブルをニューラルネッ

                                                                    【強化学習】DQNを解説・実装 - Qiita
                                                                  • TensorRT 6 でさらに快適な高速推論 - OPTiM TECH BLOG

                                                                    はじめに オプティムの R&D チームで Deep な画像解析をやっている奥村です。 2019/09/17 の Tweet で TensorRT 6 のリリースを発見しました。TensorRT 5.1.5 のリリースから約四ヶ月ぶりのリリースとなります。今回は RC がなく、いきなり GA となっています。気になった内容がいくつかあったので、TensorRT 6.0.1 のリリースノートをベースに、意訳(直訳)したものをメモしました。公式情報ではないので参考程度にしてください。TensorRT については特にここでは触れませんが、 TensorRT で物体検出・姿勢推定はどれくらい速くなる? - OPTiM TECH BLOG で少し触れていますので興味があれば参照してみてください。 はじめに 気になった内容 Dynamic Shapes IResizeLayer 3D Convoluti

                                                                      TensorRT 6 でさらに快適な高速推論 - OPTiM TECH BLOG
                                                                    • テキスト生成 AI 利活用におけるリスクへの対策ガイドブック(α版)

                                                                      テキスト生成 AI 利活用におけるリスクへの対策ガイ ドブック(α版) 2024(令和 6)年 5 月 29 日 デジタル庁 〔ドキュメントの位置付け〕 参考資料。今後、デジタル社会推進標準ガイドラインへの編入を検討予定 〔キーワード〕 テキスト生成 AI、生成 AI、サービス開発者、サービス提供者 〔概要〕 テキスト生成 AI を利活用し、行政サービスや職員業務の改善の重要度が高まる中、リ スクを特定し、そのリスクを受容できるレベルまでに軽減する対応もまた重要になってい る。テキスト生成 AI に関連するリスクは多岐にわたるが、その多くはテキスト生成 AI 固有 でない AI システム全般に共通するものである。そこで、本文書では政府情報システムを対 象に、テキスト生成 AI 固有と見られるリスクに焦点をあて、留意点を紹介する。現段階 (2024 年 5 月現在)では、実践的なフレームワー

                                                                      • Webアプリケーションスキャナで機械学習 - DBバージョンの次の文字を予測 | 技術者ブログ | 三井物産セキュアディレクション株式会社

                                                                        見てのとおり、一部のDBのバージョン文字列はかなり長いです。 一度に文字列全体が取得できる状況では長い文字列でも問題はありませんが、応答の内容/時間をもとにバイナリサーチにより1bitずつ特定していく場合、長い文字列の取得にはそれなりの時間がかかります。 さらに、バイナリサーチではなく、LIKE演算子で1文字(または1単語)ずつ特定していく場合には、もっと長い時間がかかります。次の例ではPostgreSの後の1文字を特定しようとしていますが、正解を探すには考えられるすべての文字を試すことになります。 ... CASE WHEN version() LIKE 'PostgreSa%' THEN ... ELSE ... END ... ... CASE WHEN version() LIKE 'PostgreSb%' THEN ... ELSE ... END ... ... CASE WH

                                                                          Webアプリケーションスキャナで機械学習 - DBバージョンの次の文字を予測 | 技術者ブログ | 三井物産セキュアディレクション株式会社
                                                                        • Amazon.co.jp: PyTorch自然言語処理プログラミング word2vec/LSTM/seq2seq/BERTで日本語テキスト解析! (impress top gearシリーズ): 新納浩幸: 本

                                                                            Amazon.co.jp: PyTorch自然言語処理プログラミング word2vec/LSTM/seq2seq/BERTで日本語テキスト解析! (impress top gearシリーズ): 新納浩幸: 本
                                                                          • どこから見てもメンダコ

                                                                            Implicit Q-Learningでは、maxQ(s,a)の評価を期待回帰(Expectile Regression)によって暗黙的に行うことでオフライン強化学習の困難の一つであるサンプル外アクション問題を回避します openreview.net オフライン強化学習の困難 オフライン強化学習とは サンプル外アクションの価値評価問題 OoDアクション(Out of Distribution) の回避 SARSAアプローチ Implicit Q learning:暗黙的なQ学習 ①状態価値V(s)は行動選択に由来するランダム性をもつ確率分布である ②期待回帰(Expectile Regression)によるmaxQ(s, a)の暗黙評価 TF2での実装 Q関数の更新 Advantage weighted regression による方策抽出 学習結果 次:拡散ポリシー関連 オフライン強化学

                                                                              どこから見てもメンダコ
                                                                            • グーグルの最新AI「BERT」が誇る驚異の学習法、文章を次々と飲み込んで理解

                                                                              文章読解の分野でもAI(人工知能)が人間の平均レベルを超え始めた。米グーグル(Google)の新AI技術「BERT」が壁を突き破り、検索や情報収集などの効率が飛躍的に高まる可能性が出てきた。BERTの驚異の仕組みを解説する。 米グーグル(Google)が2018年10月に発表した新しいAI技術「BERT」やその改良版によって、AIが文章読解の分野でも高い性能を発揮するようになった。驚くべきその仕組みを解説しよう。 「穴埋め問題」で学習 BERT以前の言語モデルは前にある単語から後ろに続く単語を予測したり、文章の中で近い距離にある単語同士の関係を把握したりするだけだった。それに対してBERTは文章中の遠い距離にある単語同士の関係を把握したり、文脈を基に文章の各所にあるべき単語を予測したりできるようになった。 遠い距離にある単語同士の関係も把握するので、言語モデルの規模は大きくなる。BERTに

                                                                                グーグルの最新AI「BERT」が誇る驚異の学習法、文章を次々と飲み込んで理解
                                                                              • 1次元畳み込みニューラルネットワーク(自然言語処理) - Qiita

                                                                                はじめに 今回は自然言語処理でよく使われる「1次元畳み込みニューラルネットワーク」の実装をしていきます。 🌟リカレントニューラルネットワーク(RNN)まとめ(数式なし) https://qiita.com/hara_tatsu/items/5304479f64297221135d 🌟LSTMの実装(RNN・自然言語処理の前処理) https://qiita.com/hara_tatsu/items/c3ba100e95e600846125 🌟双方向LSTM(Bidirectional LSTM)の実装 https://qiita.com/hara_tatsu/items/d1ddb5f1e0dee55dcdfa 1次元畳み込みニューラルネットワークとは 2次元畳み込みニューラルネットワークは、画像処理分野で利用されている。 1次元畳み込みニューラルネットワークはテキスト分類や時系列予

                                                                                  1次元畳み込みニューラルネットワーク(自然言語処理) - Qiita
                                                                                • 自然言語処理に使われるLSTMとは?RNNとの違いや特徴を紹介

                                                                                  第三次AIブームと呼ばれる昨今、さまざまな企業が積極的にAI(人工知能)を導入し始めており、私たちの生活にも溶け込みつつある状況です。スマートフォンでも気軽にAIを利用できるため、もはや欠かせない存在といっても過言ではないでしょう。 その中でも、チャットボットやスマートスピーカーに用いられている「自然言語処理」は、多くの価値を見出すことから特に注目されています。今回は、その自然言語処理に使われる「LSTM」について詳しくご紹介していきます。RNNとの違いについても解説していきますので、ぜひ参考にしてみてください。 ディープラーニングについて詳しく知りたい方は以下の記事もご覧ください。 ディープラーニングとは?仕組みやできること、実用例をわかりやすく紹介 LSTMとは、「Long Short Term Memory」を略した言葉であり、ニューラルネットワークに使用される層の一つです。このLS

                                                                                    自然言語処理に使われるLSTMとは?RNNとの違いや特徴を紹介