並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 817件

新着順 人気順

"Deep Learning"の検索結果1 - 40 件 / 817件

  • AlphaFold 3 predicts the structure and interactions of all of life’s molecules

      AlphaFold 3 predicts the structure and interactions of all of life’s molecules
    • RAGの評価:評価の必要性と問題点 - Beatrust techBlog

      本ブログはこんな人におすすめ RAG (Retrieval Augmented Generation)を使ったアプリケーションを開発しているけど評価に関心のある人 LLM (Large Language Model)やRAGのハルシネーションをどう評価するのかに関心のある人 Ragas (RAGの評価ライブラリ:Retrieval augmented generation assessment)の挙動に興味がある人 こんにちは。私はBeatrustのML周辺のお手伝いをしている鈴木宏和と申します。今回はこれから3つのパートに分けて紹介させていただきますが、LLMの応用として特に注目を集めているRAG (Retrieval Augmented Generation)について、RAGの評価の必要性とアプローチ方法について考察しつつ、RAGに特化した評価ライブラリであるRagasの有用性に関する

        RAGの評価:評価の必要性と問題点 - Beatrust techBlog
      • KAN: Kolmogorov-Arnold Networks

        Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes ("neurons"), KANs have learnable activation functions on edges ("weights"). KANs have no linear weights at all -- every weight parameter is replaced by a univariate function parametriz

        • LLMの現在 - Speaker Deck

          今のLLMを取り巻く状況について紹介します。

            LLMの現在 - Speaker Deck
          • Sakana AI

            概要 Sakana AIは進化や集合知などの自然界の原理を応用して基盤モデルを開発することを目指しています。私達の目標は、モデルを自ら訓練し開発することだけではありません。基盤モデルの開発を効率化、高度化、自動化するための新たな手法を生み出すことに挑戦しています。この目標に向けた第一歩として、私たちはプレプリント「Evolutionary Optimization of Model Merging Recipes (モデルマージの進化的最適化)」を公開しました。 このリリースの要点は以下の通りです。 進化的モデルマージという手法を提案します。これは、多様な能力を持つ幅広いオープンソースモデルを融合(マージ)して新たな基盤モデルを構築するための方法を、進化的アルゴリズムを用いて発見する手法です。私たちの手法は、ユーザーが指定した能力に長けた新しい基盤モデルを自動的に作成することができます。既

              Sakana AI
            • ドナルド・トランプが「TikTokを禁止すると国民の敵Facebookに力を与えてしまう」と発言

              共和党大統領予備候補のドナルド・トランプ氏が、中国系ソーシャルメディアアプリのTikTokをアメリカで全面的に禁止しようとする動きについて懸念を表明しました。これは、議会が可決すれば禁止法案に署名すると述べたジョー・バイデン大統領の見解とは対照的です。 Trump says TikTok ban would empower Meta, slams Facebook https://www.cnbc.com/2024/03/11/trump-says-a-tiktok-ban-would-empower-meta-slams-facebook-as-enemy-of-the-people.html TikTok ban: House vote set for Wednesday morning https://www.axios.com/2024/03/11/tiktok-ban-congr

                ドナルド・トランプが「TikTokを禁止すると国民の敵Facebookに力を与えてしまう」と発言
              • 自作キーボードの聖地、遊舎工房に行ってみたら、そこは沼だった(小寺信良) | テクノエッジ TechnoEdge

                18年間テレビ番組制作者を務めたのち、文筆家として独立。家電から放送機器まで執筆・評論活動を行なう傍ら、子供の教育と保護者活動の合理化・IT化に取り組む。一般社団法人「インターネットユーザー協会」代表理事。 もういい加減にしろよと読者から怒られかねないのだが、まだまだキーボードの話である。 KeychronのK11 Proを購入し、散々いじくり回していたわけだが、まあさすがに自作までは時間ないし、キーボード改造もここまでかなと思っていた。ところが先日、PFUのHHKB Studioのお話を聞く機会があり、1995年当時の秋葉原の話などが出て、懐かしく思い出した。この記事はまもなくITmedia MONOistに掲載されると思うので、お楽しみにしていただきたい。 そのインタビューの中で、秋葉原のキーボード専門店「遊舎工房」の話が出て、そういえばまだ一度も行ったことないなと気づいた。だいたいこ

                  自作キーボードの聖地、遊舎工房に行ってみたら、そこは沼だった(小寺信良) | テクノエッジ TechnoEdge
                • 商用無料、新作フリーフォントがリリース! 柔らかで穏やかな、紙面を彩る見出し用ゴシック体「紙モノゴシック」

                  「晩秋レトロミン」「筆竹仮名B」などのフリーフォントをリリースされている二人組ユニット「すずみばと書林」から、新作フリーフォントがリリースされました。 今回は、印刷での使用を目的にデザインされた「紙モノゴシック」 とは言...記事の続きを読む

                    商用無料、新作フリーフォントがリリース! 柔らかで穏やかな、紙面を彩る見出し用ゴシック体「紙モノゴシック」
                  • EV減速の中でもっとも注意すべき政策

                    EVシフトの減速を示すニュースが次々に発表されている。BMW、GM、フォード、テスラ、リビアン、アップルなど、多くの会社が先行きの見込みをマイナス修正。計画の先延ばしや中止など、現実に応じた修正を余儀なくされている。 ただし、こうなるのはずっと前から分かっていたことで、ようやく世間が悪夢から覚めたということになるだろう。「後出しで言うな」という人が出てきそうなので、本連載の過去記事を遡(さかのぼ)ってみた。まあ本人もいったい何時からマルチパスウェイの記事を書き始めたのかよく覚えていないので、一度おさらいしてみたかったのもある。 BEVシフトが限定的であることを最初に明確に書いたのは7年前、2017年5月の「日本車はガラケーと同じ末路をたどるのか?」だ。 そしてエンジンはなくならないという主張が同じ年の7月にある。「電動化に向かう時代のエンジン技術」という記事だ。 現在の流れに至る原因が欧州

                      EV減速の中でもっとも注意すべき政策
                    • AIの仕組みや開発手法についてイラスト付きで分かりやすく解説するAmazonの無料教材「MLU-Explain」

                      AIの研究開発は急速に進んでおり、「そろそろAIについて勉強しないとな」と考えている人も多いはず。Amazonが無料公開している教材「MLU-Explain」ではニューラルネットワークの基礎が分かりやすいイラストやアニメーション付きで解説されています。 MLU-Explain https://mlu-explain.github.io/ MLU-Explainは機械学習の重要な概念をイメージ画像やアニメーションを使って分かりやすく解説する教材で、「ニューラルネットワークの基礎」「機械学習モデルからバイアスを取り除く方法」「ロジスティクス回帰の基礎」「線形回帰の基礎」などを学べます。 例えば、ニューラルネットワークの解説ページは「ニューラルネットワークは、『ニューロン』と呼ばれる相互接続された計算ノードが層状に積み重なって構成されるネットワークである」という基本的な概念の説明で始まり、ニュー

                        AIの仕組みや開発手法についてイラスト付きで分かりやすく解説するAmazonの無料教材「MLU-Explain」
                      • Video generation models as world simulators

                        We explore large-scale training of generative models on video data. Specifically, we train text-conditional diffusion models jointly on videos and images of variable durations, resolutions and aspect ratios. We leverage a transformer architecture that operates on spacetime patches of video and image latent codes. Our largest model, Sora, is capable of generating a minute of high fidelity video. Ou

                          Video generation models as world simulators
                        • モデルパラメータの算術 - ジョイジョイジョイ

                          深層モデルのパラメータを一列に並べてベクトルにします。このベクトルは大規模なモデルであれば何十億次元にもなります。一見、意味のない数値の羅列のようですが、このベクトルはベクトルとして深い意味があることが分かってきています。例えば、 と を異なるパラメータベクトルとすると、 や をパラメータとして持つモデルはちゃんと機能します。本稿では、このようなモデルパラメータの算術を用いた手法とその背後にある理論について解説します。 モデルスープ タスクベクトル モデルパラメータとニューラルタンジェントカーネル おわりに モデルスープ モデルスープ [Wortsman+ ICML 2022] は複数のモデルパラメータを平均することで性能を上げる手法です。事前学習モデル からはじめて、様々なハイパーパラメータで訓練した結果のパラメータを とします。これらを平均したベクトル は個々のモデルよりも性能が高く、

                            モデルパラメータの算術 - ジョイジョイジョイ
                          • Behind The Scenes: Cloud Native Storage System for AI

                            AI向けクラウドネイティブなストレージシステムの裏側 My talk at https://event.cloudnativedays.jp/cndt2023/talks/1996 .

                              Behind The Scenes: Cloud Native Storage System for AI
                            • LLM Visualization

                              A 3D animated visualization of an LLM with a walkthrough.

                              • マルチモーダルLLMの応用動向の論文調査

                                社内のテックトークで紹介しました。 論文内で議論しているマルチモーダルLLMの活用方法や課題などを紹介しています。 詳しいアルゴリズムの話はしていません。

                                  マルチモーダルLLMの応用動向の論文調査
                                • 【AI動画生成】Animate Anyone 論文解説

                                  はじめに 11月も終わり、今年も残るところあと一か月となりました。 今年ももう終わるから今年中に成果を上げとけ!と言わんばかりに最近は新技術の登場が多いです。 今回取り上げるのも11月最後の大砲として出てきた新技術、その名もAnimate Anyone Animate Anyoneとはなんぞや 文字で説明するより見たほうが早い 凄くざっくり説明すると、一枚の絵と動きをボーン動画として入力すると、入力した絵がボーン動画と同じ動きをしてくれるよ!というもの。 似たようなものは今までもReferenceOnly × openpose × animatediffとかで出来ましたが、特筆すべきはその精度。 動画生成の大敵であるちらつきは一切なく、入力画像にかなり忠実な動画を生成しています。 さてこの技術、動画生成にずっと注目している自分としてはいますぐにでも弄り倒したいのですが、残念ながらコードとモ

                                    【AI動画生成】Animate Anyone 論文解説
                                  • 群知能で生成AIの次 「トランスフォーマー」生みの親 - 日本経済新聞

                                    Introduction 人工知能(AI)関係者の間では名の知れた米グーグル出身の研究者コンビが東京でAI開発スタートアップを立ち上げた。1人は今の生成AIの土台となる「トランスフォーマー」技術の論文を共同執筆したライオン・ジョーンズ氏。もう1人はグーグルのAI研究部門の東京チームを率いたデビッド・ハ氏だ。生成AIの開拓者たちが見据える「次」を聞いた。(聞き手は生川暁、伴正春)現行の生成AI、開発負担大きく

                                      群知能で生成AIの次 「トランスフォーマー」生みの親 - 日本経済新聞
                                    • 日本最強ユニコーンPreferred Networks、損失30億円超 第9期決算 | 自動運転ラボ

                                      出典:官報(※クリックorタップすると拡大できます)日本を代表するユニコーン企業で、自動運転関連技術の開発も手掛けるAI(人工知能)開発企業の株式会社Preferred Networks(本社:東京都千代田区/代表取締役CEO:西川徹)。同社の第9期決算公告(2022年2月〜2023年1月)が、このほど官報に掲載された。 第9期は売上高が76億5,500万円、当期純損失は30億6,600万円であった。 これと同じタイミングで、同社は新設分割により、生成AI事業に関する新子会社「Preferred Elements」を2023年11月1日に設立することを発表した。2021年11月には、自律移動ロボット事業を手掛ける「Preferred Robotics」も新設分割により設立している。 過去の新設分割の経緯があるため、同社の決算を過去の決算と単純に比較はしにくいが、参考のために記載すると、第7

                                        日本最強ユニコーンPreferred Networks、損失30億円超 第9期決算 | 自動運転ラボ
                                      • 日本語/英語両方で世界トップクラス性能の大規模言語モデル。商用利用可

                                          日本語/英語両方で世界トップクラス性能の大規模言語モデル。商用利用可
                                        • 機械学習と自動微分 (2023)

                                          「最適化法」第15回(ゲストトーク), 2023年1月20日, 同志社大学.

                                            機械学習と自動微分 (2023)
                                          • OpenAI Cookbook

                                            Processing and narrating a video with GPT's visual capabilities and the TTS API

                                              OpenAI Cookbook
                                            • 最近話題の マルチモーダルLLM まとめ|npaka

                                              最近話題の 「マルチモーダルLLM」 をまとめました。 1. マルチモーダルLLMの概要「マルチモーダルLLM」(MLLM)は、画像とテキスト(自然言語)を組み合わせたタスクに用いられるモデルです。視覚情報とテキスト情報を組み合わせて多くの実世界の問題を解決するための強力なツールとなっています。 以下のスライドが参考になります。 2. マルチモーダルLLM主な「マルチモーダルLLM」は、次のとおりです。 2-1. BLIP2022年1月、Salesforceが発表したマルチモーダルLLMです。

                                                最近話題の マルチモーダルLLM まとめ|npaka
                                              • 大規模言語モデル

                                                2023年度統計関連学会連合大会チュートリアルセッション 言語モデルと自然言語処理のフロンティア

                                                  大規模言語モデル
                                                • ChatGPTに渡す文章の適切な区切り線について検証した記事|Clirea

                                                  はじめに大規模言語モデルであるChatGPTに文章を渡す際、適切な区切り線の使用は、情報の正確な伝達や解釈に大いに役立ちます。 この記事では、区切り線に適切なものを検証します。 区切り線とは?使い方区切り線は文章を区切る時に使用する文字列のことです。 例えば下記のようなものです。 また、使い方をまとめた記事もあるので参考にしてください。 def test() a = "a" b = "b" c = a + b print(c) ================================ ←これが区切り線 上記のコードについて教えてください 結論先に結論を言うと、4個~16個連続した「-」か「=」 もしくは8の倍数の「-」か「=」が区切り線としてはベストでした。 ---- ---------------- -------------------------------- ==== ==

                                                    ChatGPTに渡す文章の適切な区切り線について検証した記事|Clirea
                                                  • 従来の大規模言語モデルの制約だった「入力量の限界」を取り払った「RWKV」は一体どんな言語モデルなのか?

                                                    ChatGPTやBardなど、2023年7月時点で商用利用されている大規模言語モデルはほとんど全てがトランスフォーマーというアーキテクチャを利用したモデルですが、トランスフォーマー型のモデルは入力の長さの2乗に比例して計算量が増加するため、入力サイズが制限されてしまう問題があります。そうした問題に応えて、大きいデータへの対応や推論時のメモリ使用量の削減を達成しつつトランスフォーマー型に匹敵する性能を出せるアーキテクチャ「RWKV」について、著者の一人がブログで解説しています。 The RWKV language model: An RNN with the advantages of a transformer | The Good Minima https://johanwind.github.io/2023/03/23/rwkv_overview.html How the RWKV l

                                                      従来の大規模言語モデルの制約だった「入力量の限界」を取り払った「RWKV」は一体どんな言語モデルなのか?
                                                    • Poetry1.5.1からGPU版のPytorchのインストールが簡単になりました

                                                      結論 GPU版PytorchのようなPyPIに存在しないパッケージにおいて、Poetry1.5.1からインストールがより簡単になりました🎉 例えば自分の環境では下記の2行でインストールできます。 poetry source add torch_cu118 --priority=explicit https://download.pytorch.org/whl/cu118 poetry add torch torchvision torchaudio --source torch_cu118

                                                        Poetry1.5.1からGPU版のPytorchのインストールが簡単になりました
                                                      • Stable Diffusion から特定の概念を忘れさせる学習を行ってみる

                                                        TL;DR ESD の手法で LoRA を学習してみたらそれっぽい感じのことができたよ VRAM 8GB で余裕で学習できるようになったよ (元は20GB要求) LoRA として保存できるようになったので重みの取り回しが良くなったよ マイナス適用によって、概念を削除するだけでなく強調することもできたよ 一度でも画像生成 AI に触ったことがあると、より楽しんで読めると思います。 論文とかどうでもいいから学習方法知りたい! という方は 実際に学習してみる へどうぞ! 今回作成したもの コード: モデルなど: 前提 Stable Diffusion とは、Stability AI らが公開したオープンソースの画像生成 AI であり、テキストによる指示で様々な画像を生成することができる。 本来の Stable Diffusion は、実写画像や海外風のイラストを出力することが得意だが、アジア系の

                                                          Stable Diffusion から特定の概念を忘れさせる学習を行ってみる
                                                        • 大規模モデルを支える分散並列学習のしくみ Part1

                                                          はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 自然言語処理分野における大規模深層学習の重要性は日に日に高まっていますが、GPT-3, GPT-4 などのモデルの学習には膨大な計算コストがかかり、容易に学習できなくなっています。実際、モデルサイズが近年急速に大きくなっていることにより、学習に必要な計算量(FLOPs)は以下のように年々膨大になっています。近年の大規模モデルでは、NVIDIA H100 80GB であっても 1 つの GPU では、モデルをのせることすらできません。 Compute Trends Across Three Eras of Machine Learning より またScaling Laws によると、大規模なモデルは小さいモデルと比較してより優れた性能を発揮するため、自動

                                                            大規模モデルを支える分散並列学習のしくみ Part1
                                                          • The RefinedWeb Dataset for Falcon LLM: Outperforming Curated Corpora with Web Data, and Web Data Only

                                                            Large language models are commonly trained on a mixture of filtered web data and curated high-quality corpora, such as social media conversations, books, or technical papers. This curation process is believed to be necessary to produce performant models with broad zero-shot generalization abilities. However, as larger models requiring pretraining on trillions of tokens are considered, it is unclea

                                                            • 【速報】次世代の外観検査!?プロンプトを駆使した異常検知 - Qiita

                                                              先日、革新的な画像の異常検知(SAA)が出てきました。 何やら革命的な臭いがする... SAMを使った異常検知手法https://t.co/wmwFcbULdq コードはこちらhttps://t.co/3npK3FhnEz pic.twitter.com/JDs30bEJyQ — shinmura0 (@shinmura0) May 22, 2023 本稿では、操作手順 & 触ってみた感想をご報告します。 特長 本題に入る前に、どこら辺が革新的なのかざっくり説明します。 ※ SAAの詳細は論文をご参照ください。 学習データは不要 通常、学習(正常)データを数百枚用意しますが、この手法では正常データを必要としません。 ドメイン知識を導入できる 予め、異常の傾向をプロンプトに入れることにより、異常の特徴をモデルに教えることができます。 二点目が特に大きく、今までの異常検知では、積極的に異常の傾

                                                                【速報】次世代の外観検査!?プロンプトを駆使した異常検知 - Qiita
                                                              • ChatGPT(GPT-4)が個人情報を出力するか試してみた | DevelopersIO

                                                                危機管理室の吉本です。 生成AI(GPT-3.5)が個人情報を出力することがある。という三井物産セキュアディレクション㈱さんの記事を読み、GPT-4ではどうなるか気になったので自分でも試してみました。 ChatGPT(GPT-3.5)での個人情報開示 記事の内容では、GPT-3.5である手法を用いると、公開されている情報から学習した個人情報を出力させることが可能であると示されています。実際に自分でもやってみたところ、下図のように確かに公開されている個人情報の抽出がでできました。 そこでGPT-4ではどのような結果になるか、またどのように安全性を高めているかをまとめます。 GPT-4の安全性 OpenAI社はGPT-4の安全性について、許可されていないコンテンツへのリクエストに対する回答率が82%減ったとしています。 We spent 6 months making GPT-4 safer

                                                                  ChatGPT(GPT-4)が個人情報を出力するか試してみた | DevelopersIO
                                                                • オープンなLLMをDockerで動かす

                                                                  次々と発表されるオープンな日本語大規模モデル どうなっているの??という感じですよね。 我らがnpakaさんは、さっそくGoogle Colabで動かしていらっしゃいます。 ただ、Google Colabだと毎回モデルのダウンロードが大変なので、ローカルでDocker使って手軽に動かせるといいな、ということでやってみました。 以下GitHubのリポジトリにDockerfileとサンプルプログラムをおいています。チャットっぽいことをできるようにしています。 上記で、サイバーエージェントとリンナのLLMが両方動きます。 使用環境 前提となる環境です。使用しているPCのスペックは以下です。 項目 内容

                                                                    オープンなLLMをDockerで動かす
                                                                  • サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供―

                                                                    株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、最大68億パラメータの日本語LLM(Large Language Model、大規模言語モデル)を一般公開したことをお知らせいたします。 近年、OpenAI社が開発した「ChatGPT」※1 を始めとする生成AI・LLMは急速な進化を遂げており、世界中のあらゆる業界・ビジネスにおいて活用が進んでいます。 一方、既存のLLMのほとんどは英語を中心に学習されているため、日本語および日本文化に強いLLMは少ない状況です。 ■最大68億パラメータの日本語LLM(大規模言語モデル)の公開について こうした背景のもと、当社は日本語LLMの開発に取り組んでおり、このたび一部モデルをHugging Face Hubにて公開いたしました。公開されたモデルはオープンな日本語データ※2で学習したもので

                                                                      サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供―
                                                                    • Bard が日本語に対応

                                                                      Bard は、ジェネレーティブ AI を活用してユーザーをサポートする Google の試験運用中のサービスです。旅行プランの案を出したり、ブログ記事の構成案を作成したりと、英語での公開から 2 か月弱の間に、すでに多くのユーザーに様々な方法でお使いいただいています。 そして、本日より Bard が日本語でも利用できるようになりました。「おいしい卵焼きを作るためのコツを教えて」や「夏休みの自由研究のアイデアを出して」など、 創造性と生産性を高めるパートナーとして、 bard.google.com から、Bard をぜひお試しください。 Bard とは Bard は、Google の大規模言語モデル( LLM : Large Language Model )である PaLM 2 を利用しています。LLM は言語のパターンを拾い上げること、それを使って文章の中で次に来る確率の高い単語を予測する

                                                                        Bard が日本語に対応
                                                                      • Zero-shot Learning網羅的サーベイ:CLIPが切り開いたVision & Languageの新しい世界 - エクサウィザーズ Engineer Blog

                                                                        こんにちは! 画像システムグループで機械学習エンジニアをやっている小島です。 この記事では、今ホットな「Zero-shot Learning」と「Vision & Language」に関する最新情報を、CLIPという研究を起点として網羅的にサーベイをしていきます。このために論文1000本に目を通し、70本程度を記事にしました。 Zero-shotやVision & Languageは、Stable Diffusionに代表される画像生成AIとも密接に関連している技術です。この記事を通して、Vision & Languageの奥深い世界を体感できるでしょう。 注意事項 この記事は非常に長いため、全部読むのに1時間以上かかる可能性があるので、休憩を取りながら、または必要な部分だけ読んでください。各セクションを個別に読んでも問題ありません。 また、文章中の画像は、特別な記載がない限り、引用元の論

                                                                          Zero-shot Learning網羅的サーベイ:CLIPが切り開いたVision & Languageの新しい世界 - エクサウィザーズ Engineer Blog
                                                                        • 【論文解説】OpenAI GPT-4 を理解する

                                                                          さて、ChatGPT が非常に盛り上がっていますが、2022年11月にリリースされた ChatGPT は GPT-3.5 というモデルがベースになっています。 そして、2023年3月にはその後継モデルである GPT-4 がリリースされ、ChatGPT Plus で利用できるようになっています。(月額20$) それ以降も画像データを処理できるようになったり、個人の好みを記憶できるようになったりと色々なアップデータがあってこの先どうなるんだろうと楽しみになりますね。 今回は、もともとの GPT-4 についてしっかりと解説したいと思います。 ちょっとした対話であれば GPT-3.5 でも GPT-4 でもそこまで大きな差はないように思えますが、GPT-4 に情報抽出や分類問題などのタスクを解かせようとすると、GPT-4 の方がかなり精度が良くなっていることがわかります。 ですので、より複雑な利用

                                                                            【論文解説】OpenAI GPT-4 を理解する
                                                                          • 0421DS協会_ChatGPTによって描かれる未来とAI開発の変遷.pdf

                                                                            発表動画はこちら。 https://youtu.be/l9fpxtz22JU 2023/4/29 一部修正とAPIに関するページ追加 2023/5/11 ChatGPTの言葉の意味を補足する資料を追加。Azure OpenAI Serviceで使えるモデルの記載を一部修正・最新情報追記。 2023/5/15 一部Fine tuningとPromptに関する記載を修正 2023/5/26 Plugin補足資料を追加 2023/6/12 Fine tuningとPromptingの位置づけを一部修正 2023/6/16 非機能要件に対応するスライドを何枚か追加。リージョン情報などを更新 アジェンダ 1 GPTの全体像 GPTとは何なのか ~チャットAIを例にした動作イメージ~ GPTによって実現されたサービス MicrosoftのGPT活用 国内のGPT導入の関連ニュース GPTに期待される用

                                                                              0421DS協会_ChatGPTによって描かれる未来とAI開発の変遷.pdf
                                                                            • [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models

                                                                              パラメータを固定した事前学習済みモデルに対して、ごく少数のパラメータからなる低ランク行列を導入・学習することで、モデル全体のfine-tuningと同等の性能を発揮できる手法であるLoRAと、その論文について解説した資料です。 深層学習を用いた自然言語処理の歴史的な変遷と周辺技術から、LoRAが必要とされるに至った背景まで丁寧に解説します。

                                                                                [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models
                                                                              • RNNでTransformer並みの性能を実現するRWKVがやばい

                                                                                (本記事は数時間前からRWKVの手法について調べ始めた著者が、手法をまとめるためのメモ書きとして深夜テンション書いたレベルのものです。内容の正確さについて保証しないので各自最後にある参考文献の確認をお願いします。日本語の記事でRWKVの手法について解説されたものが見当たらなかったので、一部僕の見解が含まれますが英語版中国語版の翻訳程度に受け取ってもらえたら幸いです。中国語は一切読めないけど・・・) Introduction 昨今の生成系AIブームの中で、OpenAIが開発するChatGPT、特にGPT4の性能は目を引くものがあります。ですが、そのモデルを動かすための計算資源にも目を引くものがあり、LLaMA.cppなどローカルで動かそうとする試みは存在するにせよ、やはり一般の家庭でしかも現実的な電気代でGPT4を動かすという未来は遠そうです。 さて、そんな話題のChatGPTやGPT4です

                                                                                  RNNでTransformer並みの性能を実現するRWKVがやばい
                                                                                • GPT-1の仕組みを解説!

                                                                                  皆さんこんにちは。近年、画像生成AIやテキスト生成AIなどの多数の生成AIが注目を浴びています。そんなか、2022年の末から2023年の初めにかけて多くの世間を驚かせたテキスト生成AIであるChatGPTはまだ記憶に新しいでしょう。本記事では、そんなChatGPTの技術の元となっているGPTの元祖、GPT-1について解説していきます。 GPT-1の概要 GPT-1とは、OpenAIが2018年に公開した大規模言語モデル(LLM)です。Googleが2017年に発表したTransformerと呼ばれる機械学習モデルのデコーダ部分をベースにしたモデルで、BookCorpusと呼ばれる大規模なコーパスで事前学習されました。Transformerはエンコーダデコーダの形状をしており、その生成部分に該当するデコーダを事前学習しているため、Generative Pretrained Transform

                                                                                    GPT-1の仕組みを解説!