並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 1839件

新着順 人気順

ディープラーニングの検索結果161 - 200 件 / 1839件

  • PyTorchのFXグラフモードで量子化認識トレーニングを試す - TadaoYamaokaの開発日記

    ディープラーニングのモデルを推論する際、通常GPUが必要である。しかし、GPUがない場合でも、モデルのパラメータを浮動小数点から整数へと変換する手法を使うことで、CPUだけでも推論処理を高速に行うことが可能である。この手法を量子化と呼ぶ。 PyTorchの量子化 PyTorchには、量子化の方法がいくつか用意されている。 実装は「Eager Mode Quantization」と「FX Graph Mode Quantization」に分かれており、「FX Graph Mode Quantization」の方が新しい実装で、「Eager Mode Quantization」ではモデルのレイヤー融合を手動で行う必要があったところが自動化されている。 また、一般的に量子化の手法として、 ダイナミック量子化 トレーニング後の量子化 量子化認識トレーニング がある。 ダイナミック量子化は、キャリブ

      PyTorchのFXグラフモードで量子化認識トレーニングを試す - TadaoYamaokaの開発日記
    • 言語モデルのスケーリング則(Scaling Laws for Neural Language Models)とは?

      言語モデルのスケーリング則(Scaling Laws for Neural Language Models)とは?:AI・機械学習の用語辞典 用語「スケーリング則」について説明。自然言語処理モデルのサイズ(=パラメーター数)や、データセットのサイズ、トレーニングに使用される計算量が増えるほど、より高い性能を発揮できる、という法則を指す。 連載目次 用語解説 物理学や生物学など幾つかの分野に「スケーリング則」(Scaling Laws)という用語があるが、本稿では人工知能/機械学習分野の自然言語処理におけるスケーリング則について紹介する。 ニューラル言語モデル(=ニューラルネットワークの自然言語処理モデル)における「スケーリング則(Scaling Laws for Neural Language Models)」とは、自然言語処理モデルのパラメーター数(=モデルのサイズ)や、データセットのサ

        言語モデルのスケーリング則(Scaling Laws for Neural Language Models)とは?
      • 【速報】次世代の外観検査!?プロンプトを駆使した異常検知 - Qiita

        先日、革新的な画像の異常検知(SAA)が出てきました。 何やら革命的な臭いがする... SAMを使った異常検知手法https://t.co/wmwFcbULdq コードはこちらhttps://t.co/3npK3FhnEz pic.twitter.com/JDs30bEJyQ — shinmura0 (@shinmura0) May 22, 2023 本稿では、操作手順 & 触ってみた感想をご報告します。 特長 本題に入る前に、どこら辺が革新的なのかざっくり説明します。 ※ SAAの詳細は論文をご参照ください。 学習データは不要 通常、学習(正常)データを数百枚用意しますが、この手法では正常データを必要としません。 ドメイン知識を導入できる 予め、異常の傾向をプロンプトに入れることにより、異常の特徴をモデルに教えることができます。 二点目が特に大きく、今までの異常検知では、積極的に異常の傾

          【速報】次世代の外観検査!?プロンプトを駆使した異常検知 - Qiita
        • Microsoft Build 2023 キーノートまとめ - Windows Copilot、Microsoft Fabric、Azure AI Studioなどを発表 - 吉田の備忘録

          はじめに Edge Copilot の動画から始まりました。「この時代のAIで開発者と祝う短い動画のための文章を書いて。この動画はMicrosoft Buildのオープニングで利用します。感動的なものにしてください。そして…」 「私たちはAIの新しい時代に突入しようとしています。創造する速度と同じ速度で開発でき…」 「クリエイティビティは無限となり」 「そして、より大きな課題に取り組むことができます」 「未来を作り上げ、人類の進歩を加速させるために今日、貢献できるように」 「その未来を一緒に作り上げましょう」 また皆さんに対面であえて光栄です。いま、プラットフォームの変革が訪れようとしているこの時に、 このような開発者カンファレンスは特別な場所(Microsoft Build )となります。 私にとっても1991年に初めてMousconiセンターで開催された開発者向けのカンファレンス「 P

            Microsoft Build 2023 キーノートまとめ - Windows Copilot、Microsoft Fabric、Azure AI Studioなどを発表 - 吉田の備忘録
          • Microsoft Build 2023 Book of News

            毎年恒例の開発者向けフラッグシップイベント「Microsoft Build」へようこそ。 ブック・オブ・ニュースの目標は、私たちが行うすべての発表へのロードマップを、必要なすべての詳細とともに提供することです。私たちの目標は変わりません。最新のニュースをできるだけ簡単にナビゲートし、お客様が最も興味をお持ちのトピックに関する重要な詳細を提供することです。 Microsoft Buildは、開発者のために設計されたイベントです。AIがテクノロジー分野の話題を独占している今、今年のイベントでAIが重要な役割を果たすことは理にかなっています。 私たちは、あらゆる開発者があらゆるプログラミング言語を使用し、あらゆるオペレーティングシステムでコードを書き、どこでもアプリケーションを展開できるようにするという目標を語っています。開発者がより多くの選択肢を持てるようになったAIの新時代において、私たちは

              Microsoft Build 2023 Book of News
            • NVIDIA新ドライバでStable Diffusionの処理能力が倍に

                NVIDIA新ドライバでStable Diffusionの処理能力が倍に
              • 点群SegmentationのためのTransformerサーベイ - takminの書きっぱなし備忘録 @はてなブログ

                今回、主に点群に対してSemantic Segmentationを行うためにTansformerを適用した研究についてサーベイしてみたので、資料を公開します。 元々は、前回開催したコンピュータビジョン勉強会@関東「深層学習+3D論文読み会」で発表するために準備していたのですが、発表者が十分に集まったことと、ハイブリッド開催のため運営が大変になりそうだったので、発表は断念しました。 最初は画像と点群でのTransformerの適用方法の違いが気になって調べだしたので、PointTransformerとPointMixerあたりまでを発表するつもりだったのですが、発表を取りやめて調べる時間もできたので、色々と追加で調べているうちに分量が増えてしまいました。 調べてみて、果たしてTransformerは畳み込みと比べて点群処理に最適か?というのはよくわかりませんでした。ただ、PointBERTの

                  点群SegmentationのためのTransformerサーベイ - takminの書きっぱなし備忘録 @はてなブログ
                • LLMを理解する一歩として「ゼロから作るDeep Learning」をやった - $shibayu36->blog;

                  LLM、GPT界隈を追いかけていて、GPTの仕組みと限界についての考察(2.1) - conceptualizationという記事を見かけた。これを見たとき、「どういうことか全然理解できない」という気持ちになった。また、その他LLMの解説記事を理解できないことが多く、自分の機械学習知識不足が明確になった。 理解できなかったことは悔しいし、LLMやChatGPTをうまく使いこなすには最低限どのような原理で動いているか理解したいと感じた。そこで一歩目として「ゼロから作るDeep Learning」を完走した。 ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 作者:斎藤 康毅オライリージャパンAmazon 知識なしからはじめたので時間はかかったが、次のように進めていった。 自分もコードを写経しながら読む レポジトリは https://github.co

                    LLMを理解する一歩として「ゼロから作るDeep Learning」をやった - $shibayu36->blog;
                  • ChatGPT(GPT-4)が個人情報を出力するか試してみた | DevelopersIO

                    危機管理室の吉本です。 生成AI(GPT-3.5)が個人情報を出力することがある。という三井物産セキュアディレクション㈱さんの記事を読み、GPT-4ではどうなるか気になったので自分でも試してみました。 ChatGPT(GPT-3.5)での個人情報開示 記事の内容では、GPT-3.5である手法を用いると、公開されている情報から学習した個人情報を出力させることが可能であると示されています。実際に自分でもやってみたところ、下図のように確かに公開されている個人情報の抽出がでできました。 そこでGPT-4ではどのような結果になるか、またどのように安全性を高めているかをまとめます。 GPT-4の安全性 OpenAI社はGPT-4の安全性について、許可されていないコンテンツへのリクエストに対する回答率が82%減ったとしています。 We spent 6 months making GPT-4 safer

                      ChatGPT(GPT-4)が個人情報を出力するか試してみた | DevelopersIO
                    • 生成AIに活用できるエントリーGPUの価格はこのくらい

                      生成AIに効くエントリーGPUになりそう。 コストパフォーマンスに優れるGPU、RTX 4060シリーズが発表されました。ラインナップは次の通りです。 GeForce RTX 4060 8GB 5万2800円~ 7月発売 GeForce RTX 4060 Ti 8GB 6万9800円~ 5月24日発売 GeForce RTX 4060 Ti 16GB 8万8800円~ 7月発売 まずは中堅どころのRTX 4060 Ti 8GBからリリース。Palit Microsysytemsが発表した「GeForce RTX 4060 Ti StormX 8GB」はシングルファン仕様で全長わずか17cm。小型PCケースでもRTX 3070級のパワーが出せるゲーミングPCを作れちゃうのはいいことですなあ。DLSS 3対応ゲームならフレームレートも爆上がりしますし。 YouTube LiveやOBS Stu

                        生成AIに活用できるエントリーGPUの価格はこのくらい
                      • Stable-Diffusionの学習設定まとめ|gcem156

                        なんか学習設定について、よく分からんけどデフォルト!とかよく分からんけどこうしてみたらうまくいった!みたいな感覚で議論されていることが多い気がするので、学習設定についてまとめてみようと思います。機械学習のこと知らん人にも分かるようにするはずの記事でしたが多分そうなってないです。間違いもあると思いますが、私の記事が間違っていたとしても、悪いのは私よりも頭がいい人が分かりやすい説明をしないせいであって私のせいではありません。 機械学習の簡単な説明機械学習が分からない人にも!と思って難しい用語を避けようとしてみましたが、誤差逆伝搬のことをフィードバックって言いかえたところで分かりやすくなっているのでしょうか? 機械学習はモデルの数値を学習データに合うように少しずつ調整していく作業です。なぜ少しずつかというと、機械学習では改善する方向はなんとなくわかるけど、最適な数値の位置は分からないからです。位

                          Stable-Diffusionの学習設定まとめ|gcem156
                        • オープンなLLMをDockerで動かす

                          次々と発表されるオープンな日本語大規模モデル どうなっているの??という感じですよね。 我らがnpakaさんは、さっそくGoogle Colabで動かしていらっしゃいます。 ただ、Google Colabだと毎回モデルのダウンロードが大変なので、ローカルでDocker使って手軽に動かせるといいな、ということでやってみました。 以下GitHubのリポジトリにDockerfileとサンプルプログラムをおいています。チャットっぽいことをできるようにしています。 上記で、サイバーエージェントとリンナのLLMが両方動きます。 使用環境 前提となる環境です。使用しているPCのスペックは以下です。 項目 内容

                            オープンなLLMをDockerで動かす
                          • サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供―

                            株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、最大68億パラメータの日本語LLM(Large Language Model、大規模言語モデル)を一般公開したことをお知らせいたします。 近年、OpenAI社が開発した「ChatGPT」※1 を始めとする生成AI・LLMは急速な進化を遂げており、世界中のあらゆる業界・ビジネスにおいて活用が進んでいます。 一方、既存のLLMのほとんどは英語を中心に学習されているため、日本語および日本文化に強いLLMは少ない状況です。 ■最大68億パラメータの日本語LLM(大規模言語モデル)の公開について こうした背景のもと、当社は日本語LLMの開発に取り組んでおり、このたび一部モデルをHugging Face Hubにて公開いたしました。公開されたモデルはオープンな日本語データ※2で学習したもので

                              サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供―
                            • Visual Blocks

                              Drag and drop off-the-shelf ML components with Visual Blocks. A fast, easy way to prototype ML pipelines – no expertise or coding required.

                                Visual Blocks
                              • Google I/O 2023基調講演まとめ

                                米Googleは5月10日(現地時間)、年次開発者会議「Google I/O」をハイブリッドで開催した。約2時間20分の基調講演で発表されたことを時系列で簡単にまとめる。なお、開発者向け基調講演は別途行われており、技術的な詳細はそちらで発表された。 ハードウェアも発表されたが、全体的にAI中心の講演となった。オープニングに流れた動画もGoogleが数年前からAIに取り組んできたことを示すもので、「われわれは(AIに)大胆な野心を持っているが、アプローチには常に責任がある」とし、そのアプローチの方針は「Make AI helpful for everyone(AIを誰にとっても役立つものに」だという。 最初に登壇したスンダー・ピチャイCEOは「みなさんもご存じの通り、今年はAIが非常に忙しい年になっており、私達にも語ることがたくさんあります」と口火を切った。 「生成AIにより、Google検

                                  Google I/O 2023基調講演まとめ
                                • [速報]Google、責任あるAIを実現するとして、画像にウォーターマークとメタデータの埋め込みを進めると発表。Google I/O 2023

                                  Googleは5月10日(日本時間5月11日未明)、米カリフォルニア州マウンテンビューで開催中のイベント「Google I/O 2023」で、最新のAI基盤モデル「PaLM 2」を発表しました。 PaLM 2は規模の異なるGecko、Otter、Bison、Unicornの4種類のモデルが用意され、いちばん小さな規模のGeckoはモバイルデバイスでの利用も可能で、オフラインでも動作可能。

                                    [速報]Google、責任あるAIを実現するとして、画像にウォーターマークとメタデータの埋め込みを進めると発表。Google I/O 2023
                                  • Bard が日本語に対応

                                    Bard は、ジェネレーティブ AI を活用してユーザーをサポートする Google の試験運用中のサービスです。旅行プランの案を出したり、ブログ記事の構成案を作成したりと、英語での公開から 2 か月弱の間に、すでに多くのユーザーに様々な方法でお使いいただいています。 そして、本日より Bard が日本語でも利用できるようになりました。「おいしい卵焼きを作るためのコツを教えて」や「夏休みの自由研究のアイデアを出して」など、 創造性と生産性を高めるパートナーとして、 bard.google.com から、Bard をぜひお試しください。 Bard とは Bard は、Google の大規模言語モデル( LLM : Large Language Model )である PaLM 2 を利用しています。LLM は言語のパターンを拾い上げること、それを使って文章の中で次に来る確率の高い単語を予測する

                                      Bard が日本語に対応
                                    • IBM watsonx — An AI and data platform built for business

                                      Meet watsonx The AI and data platform that’s built for business Start your free trial Train, validate, tune and deploy models for generative AI Start building AI applications Bring all your business data together to scale analytics and AI in your applications Manage your data for AI

                                        IBM watsonx — An AI and data platform built for business
                                      • Language models can explain neurons in language models

                                        We use GPT-4 to automatically write explanations for the behavior of neurons in large language models and to score those explanations. We release a dataset of these (imperfect) explanations and scores for every neuron in GPT-2. Language models have become more capable and more broadly deployed, but our understanding of how they work internally is still very limited. For example, it might be diffic

                                          Language models can explain neurons in language models
                                        • Zero-shot Learning網羅的サーベイ:CLIPが切り開いたVision & Languageの新しい世界 - エクサウィザーズ Engineer Blog

                                          こんにちは! 画像システムグループで機械学習エンジニアをやっている小島です。 この記事では、今ホットな「Zero-shot Learning」と「Vision & Language」に関する最新情報を、CLIPという研究を起点として網羅的にサーベイをしていきます。このために論文1000本に目を通し、70本程度を記事にしました。 Zero-shotやVision & Languageは、Stable Diffusionに代表される画像生成AIとも密接に関連している技術です。この記事を通して、Vision & Languageの奥深い世界を体感できるでしょう。 注意事項 この記事は非常に長いため、全部読むのに1時間以上かかる可能性があるので、休憩を取りながら、または必要な部分だけ読んでください。各セクションを個別に読んでも問題ありません。 また、文章中の画像は、特別な記載がない限り、引用元の論

                                            Zero-shot Learning網羅的サーベイ:CLIPが切り開いたVision & Languageの新しい世界 - エクサウィザーズ Engineer Blog
                                          • 文系非エンジニアがChatGPT / LLMを数式なしで解説してみる|Yuichiro.ito@Finatext(フィナテキスト)

                                            先日、社内でChatGPT / LLMを活用した実証実験をしていたら、一部感動するほど結果が出たことで、今更ながら俄然興味を持ってしまいました。 これからビジネスユースケースを考えていくうえで、「本質的にどういうものなのか」を理解しておくことがとても大切だと思い、改めてChatGPT / LLMの基本的な仕組みを整理してみました。 私みたいな文系で行列や統計はわからないけど、もう少し根本的なところを理解しておきたい!という方に是非です。 それでは、GPTをはじめとするLLM(大規模言語モデル)がどのような背景から生まれてきたのかを振り返りながら、LLMの特徴を理解していきましょう!(最後に参照したおススメの動画・記事を貼っていますので、それだけでも是非ご覧ください。) 1. ベースは、ディープラーニングを用いた自然言語処理モデル2015年頃、日本でも"AI"がバズワードになり、ディープラー

                                              文系非エンジニアがChatGPT / LLMを数式なしで解説してみる|Yuichiro.ito@Finatext(フィナテキスト)
                                            • 【論文解説】OpenAI GPT-4 を理解する

                                              さて、ChatGPT が非常に盛り上がっていますが、2022年11月にリリースされた ChatGPT は GPT-3.5 というモデルがベースになっています。 そして、2023年3月にはその後継モデルである GPT-4 がリリースされ、ChatGPT Plus で利用できるようになっています。(月額20$) それ以降も画像データを処理できるようになったり、個人の好みを記憶できるようになったりと色々なアップデータがあってこの先どうなるんだろうと楽しみになりますね。 今回は、もともとの GPT-4 についてしっかりと解説したいと思います。 ちょっとした対話であれば GPT-3.5 でも GPT-4 でもそこまで大きな差はないように思えますが、GPT-4 に情報抽出や分類問題などのタスクを解かせようとすると、GPT-4 の方がかなり精度が良くなっていることがわかります。 ですので、より複雑な利用

                                                【論文解説】OpenAI GPT-4 を理解する
                                              • Introducing Hidet: A Deep Learning Compiler for Efficient Model Serving

                                                Hidet is integrated with PyTorch as a torch.compile(...) backend following the Custom Backends tutorial. You can specify hidet as the backend when you compile a model. (Note: requires PyTorch version 2.0+): Hidet converts the given PyTorch model in the torch.fx.Graph format into its internal graph representation, and conducts a series of optimizations. Hidet provides a few options to configure the

                                                  Introducing Hidet: A Deep Learning Compiler for Efficient Model Serving
                                                • 東京大学大学院経済学研究科 「ICTと産業」基盤モデルと産業

                                                  2023/04/25に、東京大学本郷キャンパスで発表した、荒居秀尚と本田志温 の資料になります。

                                                    東京大学大学院経済学研究科 「ICTと産業」基盤モデルと産業
                                                  • エネルギー最小点で動作するAI半導体(ニューラルネットワーク・アクセラレータ)技術の開発に成功 モバイルエッジ高性能AI技術

                                                    要点 エネルギー最小点におけるSRAM動作と、超低電圧リテンションによるパワーゲーティングの両方を実現できる新たなSRAM技術を用いて、プロセッシング・イン・メモリ(PIM)型のニューラルネットワーク(NN)アクセラレータのマクロを開発。 動作時電力を99%、待機時電力を84%削減し、推論のエネルギー効率の飛躍的な増大に成功。全結合層において65 TOPS/Wの高いエネルギー効率を実現可能。 本技術は、将来のスマート社会で重要となるモバイルエッジデバイスに搭載可能な低消費電力・高性能AI技術として期待。 概要 東京工業大学 科学技術創成研究院 未来産業技術研究所の菅原聡准教授と工学院 電気電子系の塩津勇作博士後期課程大学院生(研究当時)らは、エネルギー最小点(EMP)[用語1]動作によって動作時電力を99%削減し、また、パワーゲーティング(PG)によって重みデータを失うことなく待機時電力を

                                                      エネルギー最小点で動作するAI半導体(ニューラルネットワーク・アクセラレータ)技術の開発に成功 モバイルエッジ高性能AI技術
                                                    • ディープラーニングが激速に NVIDIAの牙城を崩せるか? SambaNovaに聞く

                                                      ディープラーニングが激速に NVIDIAの牙城を崩せるか? SambaNovaに聞く:清水亮の「世界を変えるAI」(1/4 ページ) ディープラーニングにおいて、NVIDIAのGPUが欠かせないことはもはや一般常識だと思う。いくらAppleが華々しく「Apple Silicon」を喧伝しようが、AMDが「ROCm」を喧伝しようが、ディープラーニングにおいてはNVIDIAのGPUに勝るソリューションは存在しないというのが常識だった。 今、この常識に風穴を開けようとするシリコンバレーのスタートアップがある。 それがSambaNova Systems社(以下SambaNova)だ。最近では、日本の最新鋭スーパーコンピュータである「富岳」を運営する理化学研究所計算科学研究センターにも採用されたことで話題になった。しかし日本では全く知られていないこの会社、その勝算は一体どこにあるのか? SambaN

                                                        ディープラーニングが激速に NVIDIAの牙城を崩せるか? SambaNovaに聞く
                                                      • A Cookbook of Self-Supervised Learning

                                                        Self-supervised learning, dubbed the dark matter of intelligence, is a promising path to advance machine learning. Yet, much like cooking, training SSL methods is a delicate art with a high barrier to entry. While many components are familiar, successfully training a SSL method involves a dizzying set of choices from the pretext tasks to training hyper-parameters. Our goal is to lower the barrier

                                                        • さっそく月30万円稼ぐ人も現れた「ChatGPTを使って稼げる副業」のスゴすぎる中身(岡村 聡) @moneygendai

                                                          安全性や倫理性が問題視され物議をかもしている「ChatGPT」ですが、昨年11月に公開されるや圧倒的な性能で瞬く間にグローバルに広がりました。 前編『年収4000万円以上も夢じゃなくなった 進化するChatGPTが生み出す「新しい仕事と副業」のヤバすぎる中身』で紹介したように、すでにエンジニアの世界では新しい「職種」まで誕生し、その年収は4000万円にも上っています。 さて、ChatGPTは社会や仕事の現場をどのように変えるのか、さらに詳しく紹介していきましょう。 翻訳で稼ぐ人が登場 シンガポールの周囲のビジネスパーソンの間でも、仕事にChatGPTを使っているという声はここ数ヵ月で急速に増えています。 特によく聞くのが翻訳作業においての利用です。多様な言語を話す様々な人種が多いシンガポールでは、翻訳作業へのニーズが多く、副業でこれに取り組む人も周囲に何人もいますが、この分野では生成AIの

                                                            さっそく月30万円稼ぐ人も現れた「ChatGPTを使って稼げる副業」のスゴすぎる中身(岡村 聡) @moneygendai
                                                          • 0421DS協会_ChatGPTによって描かれる未来とAI開発の変遷.pdf

                                                            発表動画はこちら。 https://youtu.be/l9fpxtz22JU 2023/4/29 一部修正とAPIに関するページ追加 2023/5/11 ChatGPTの言葉の意味を補足する資料を追加。Azure OpenAI Serviceで使えるモデルの記載を一部修正・最新情報追記。 2023/5/15 一部Fine tuningとPromptに関する記載を修正 2023/5/26 Plugin補足資料を追加 2023/6/12 Fine tuningとPromptingの位置づけを一部修正 2023/6/16 非機能要件に対応するスライドを何枚か追加。リージョン情報などを更新 アジェンダ 1 GPTの全体像 GPTとは何なのか ~チャットAIを例にした動作イメージ~ GPTによって実現されたサービス MicrosoftのGPT活用 国内のGPT導入の関連ニュース GPTに期待される用

                                                              0421DS協会_ChatGPTによって描かれる未来とAI開発の変遷.pdf
                                                            • 音楽業界の最大手が危惧「音楽データをAIに学習させないで」

                                                              音楽業界の最大手が危惧「音楽データをAIに学習させないで」2023.04.20 07:0031,006 Kevin Hurler - Gizmodo US [原文] ( Kenji P. Miyajima ) 音楽にはウォーターマークつけられないよな…。 音楽業界最大レーベルのひとつであるUniversal Music Group(ユニバーサル・ミュージック・グループ。以下「UMG」)が、AIに音楽を盗用されるんじゃないかと懸念を強めています。 AIによる音楽盗用の可能性Financial Times(フィナンシャル・タイムズ。以下「FT」)が入手した電子メールによると、UMGは、AI企業がボットに楽曲を作らせるためにアーティストの音楽を学習させたり、データを収集させることを懸念しており、SpotifyやApple Musicなどに対し、AIによる音楽へのアクセスを制限するよう求めています

                                                                音楽業界の最大手が危惧「音楽データをAIに学習させないで」
                                                              • [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models

                                                                パラメータを固定した事前学習済みモデルに対して、ごく少数のパラメータからなる低ランク行列を導入・学習することで、モデル全体のfine-tuningと同等の性能を発揮できる手法であるLoRAと、その論文について解説した資料です。 深層学習を用いた自然言語処理の歴史的な変遷と周辺技術から、LoRAが必要とされるに至った背景まで丁寧に解説します。

                                                                  [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models
                                                                • RNNでTransformer並みの性能を実現するRWKVがやばい

                                                                  (本記事は数時間前からRWKVの手法について調べ始めた著者が、手法をまとめるためのメモ書きとして深夜テンション書いたレベルのものです。内容の正確さについて保証しないので各自最後にある参考文献の確認をお願いします。日本語の記事でRWKVの手法について解説されたものが見当たらなかったので、一部僕の見解が含まれますが英語版中国語版の翻訳程度に受け取ってもらえたら幸いです。中国語は一切読めないけど・・・) Introduction 昨今の生成系AIブームの中で、OpenAIが開発するChatGPT、特にGPT4の性能は目を引くものがあります。ですが、そのモデルを動かすための計算資源にも目を引くものがあり、LLaMA.cppなどローカルで動かそうとする試みは存在するにせよ、やはり一般の家庭でしかも現実的な電気代でGPT4を動かすという未来は遠そうです。 さて、そんな話題のChatGPTやGPT4です

                                                                    RNNでTransformer並みの性能を実現するRWKVがやばい
                                                                  • 誰でも利用可能な気象予測モデル「ClimaX」をMicrosoftが公開 何がすごいのか

                                                                    Microsoftは2023年1月25日、気象予測ディープラーニングモデル「ClimaX」を発表した。 ClimaXは、複数の時空間解像度で多くの気象変数にまたがるいくつかの異種データセットを使用してトレーニングされた。事前学習で見られなかった大気変数や時空間粒度を含む、さまざまな気候・気象タスクに対応できるという。MicrosoftはこのClimaXをオープンソース化し、GitHub上で公開した。トレーニング済みのモデルチェックポイントファイルは、ClimaXのWebサイトからダウンロードできる。 関連記事 「Chrome 113」β版で「WebGPU」が利用可能に JavaScriptの負荷軽減、機械学習モデル推論を3倍以上改善 Webブラウザ「Chrome 113」のβ版で、新しいWebグラフィックスAPI「WebGPU」が利用可能になった。 GLUE:英語用の一般言語理解評価ベンチ

                                                                      誰でも利用可能な気象予測モデル「ClimaX」をMicrosoftが公開 何がすごいのか
                                                                    • GPT-1の仕組みを解説!

                                                                      皆さんこんにちは。近年、画像生成AIやテキスト生成AIなどの多数の生成AIが注目を浴びています。そんなか、2022年の末から2023年の初めにかけて多くの世間を驚かせたテキスト生成AIであるChatGPTはまだ記憶に新しいでしょう。本記事では、そんなChatGPTの技術の元となっているGPTの元祖、GPT-1について解説していきます。 GPT-1の概要 GPT-1とは、OpenAIが2018年に公開した大規模言語モデル(LLM)です。Googleが2017年に発表したTransformerと呼ばれる機械学習モデルのデコーダ部分をベースにしたモデルで、BookCorpusと呼ばれる大規模なコーパスで事前学習されました。Transformerはエンコーダデコーダの形状をしており、その生成部分に該当するデコーダを事前学習しているため、Generative Pretrained Transform

                                                                        GPT-1の仕組みを解説!
                                                                      • Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理

                                                                        Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理 GoogleのChrome開発チームは、WebブラウザでGPUプログラミングを可能にするWeb標準「WebGPU」が、4月26日にリリース予定のChrome 113で正式な機能として提供されることを明らかにしました。 WebGPU, one of the biggest additions to the Web platform is finally shipping in Chrome! Many thanks to all Chromium contributors in making this possible.https://t.co/26vmxtQWi1 https://t.co/FKGC3M3FVD — Chrome Developers

                                                                          Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理
                                                                        • ディープラーニング実践ガイド

                                                                          本書では、ディープラーニングの研究で受賞歴のある3人の著者が、アイデアを現実世界の人々が使用できるものに変換するプロセスをステップバイステップで丁寧に解説します。構築するのは、クラウド、モバイル、ブラウザ、エッジデバイス向けの実用的なディープラーニングアプリケーションです。一部の章ではその章で扱うトピックの専門家をゲスト執筆者に迎えてさまざまな手法を解説しているので、読者のニーズにマッチするアプリケーションがきっと見つかるでしょう。対象読者は、ディープラーニングの世界にこれから参入したいソフトウェアエンジニアやベテランのデータサイエンティストから、AIを搭載した独自のアプリを作りたいけれど何から始めればいいのかわからないホビーストまで。 賞賛の声 監訳者まえがき まえがき 1章 人工知能の概観 1.1 おわび 1.2 ここからが本当のイントロダクション 1.3 AIとは 1.3.1 きっか

                                                                            ディープラーニング実践ガイド
                                                                          • 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について

                                                                            各種方針等 arrow_forward_ios生成系AIについて 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について 2023年4月3日 東京大学理事・副学長(教育・情報担当) 太田 邦史 この半年ほどの期間で、生成系人工知能(Generative AI)が複数発表され、社会的に大きな注目を集めています。基本的には、インターネット上などに存在する既存の文章や画像イメージを大量に機械学習し、これに強化学習を組み合わせなどして、一定レベルの品質の文章や画像を生成するシステムです。とくに、2022年11月に公開され、話題になった大規模言語モデルChatGPTはバージョンが更新され、最新のGPT-4では生成される文章などの質や正確性が著しく向上しています1。 これらの生成系AIは、平和的かつ上手に制御して利用すれば、人類の

                                                                              生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について
                                                                            • IEEEがAIモデル開発に提言「2倍のパラメーターで性能も2倍になるとは限らない」

                                                                                IEEEがAIモデル開発に提言「2倍のパラメーターで性能も2倍になるとは限らない」 
                                                                              • ChatGPT�人間のフィードバックから強化学習した対話AI

                                                                                東京大学の研究室内で,今井がChatGPTの知見を共有するために使用したスライド資料です. 特に以下のような話題,技術について解説しています. ・ChatGPTの凄さ ・ChatGPTの技術 ・言語モデル ・プロンプト ・GPTとは ・InstructGPT ・言語モデルと強化学習 ・RLFH

                                                                                  ChatGPT�人間のフィードバックから強化学習した対話AI
                                                                                • Google Colab で RWKV を試す - ChatRWKV版|npaka

                                                                                  「Google Colab」で「RWKV」を試したので、まとめました。 1. RWKV「RWKV」は、TransformerレベルのLLM性能を備えたRNNです。高性能、高速推論、VRAMの節約、高速学習、長い文脈長、自由な埋め込みを実現しています。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラレータ」で「GPU」の「プレミアム」を選択。 (2) Googleドライブのマウント。 # Googleドライブのマウント from google.colab import drive drive.mount('/content/drive')(3) 作業フォルダへの移動。 # 作業フォルダへの移動 import os os.makedirs("/content/drive/My Drive/work",

                                                                                    Google Colab で RWKV を試す - ChatRWKV版|npaka