並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 1836件

新着順 人気順

ディープラーニングの検索結果161 - 200 件 / 1836件

  • Microsoft Build 2023 Book of News

    毎年恒例の開発者向けフラッグシップイベント「Microsoft Build」へようこそ。 ブック・オブ・ニュースの目標は、私たちが行うすべての発表へのロードマップを、必要なすべての詳細とともに提供することです。私たちの目標は変わりません。最新のニュースをできるだけ簡単にナビゲートし、お客様が最も興味をお持ちのトピックに関する重要な詳細を提供することです。 Microsoft Buildは、開発者のために設計されたイベントです。AIがテクノロジー分野の話題を独占している今、今年のイベントでAIが重要な役割を果たすことは理にかなっています。 私たちは、あらゆる開発者があらゆるプログラミング言語を使用し、あらゆるオペレーティングシステムでコードを書き、どこでもアプリケーションを展開できるようにするという目標を語っています。開発者がより多くの選択肢を持てるようになったAIの新時代において、私たちは

      Microsoft Build 2023 Book of News
    • NVIDIA新ドライバでStable Diffusionの処理能力が倍に

        NVIDIA新ドライバでStable Diffusionの処理能力が倍に
      • 点群SegmentationのためのTransformerサーベイ - takminの書きっぱなし備忘録 @はてなブログ

        今回、主に点群に対してSemantic Segmentationを行うためにTansformerを適用した研究についてサーベイしてみたので、資料を公開します。 元々は、前回開催したコンピュータビジョン勉強会@関東「深層学習+3D論文読み会」で発表するために準備していたのですが、発表者が十分に集まったことと、ハイブリッド開催のため運営が大変になりそうだったので、発表は断念しました。 最初は画像と点群でのTransformerの適用方法の違いが気になって調べだしたので、PointTransformerとPointMixerあたりまでを発表するつもりだったのですが、発表を取りやめて調べる時間もできたので、色々と追加で調べているうちに分量が増えてしまいました。 調べてみて、果たしてTransformerは畳み込みと比べて点群処理に最適か?というのはよくわかりませんでした。ただ、PointBERTの

          点群SegmentationのためのTransformerサーベイ - takminの書きっぱなし備忘録 @はてなブログ
        • LLMを理解する一歩として「ゼロから作るDeep Learning」をやった - $shibayu36->blog;

          LLM、GPT界隈を追いかけていて、GPTの仕組みと限界についての考察(2.1) - conceptualizationという記事を見かけた。これを見たとき、「どういうことか全然理解できない」という気持ちになった。また、その他LLMの解説記事を理解できないことが多く、自分の機械学習知識不足が明確になった。 理解できなかったことは悔しいし、LLMやChatGPTをうまく使いこなすには最低限どのような原理で動いているか理解したいと感じた。そこで一歩目として「ゼロから作るDeep Learning」を完走した。 ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 作者:斎藤 康毅オライリージャパンAmazon 知識なしからはじめたので時間はかかったが、次のように進めていった。 自分もコードを写経しながら読む レポジトリは https://github.co

            LLMを理解する一歩として「ゼロから作るDeep Learning」をやった - $shibayu36->blog;
          • ChatGPT(GPT-4)が個人情報を出力するか試してみた | DevelopersIO

            危機管理室の吉本です。 生成AI(GPT-3.5)が個人情報を出力することがある。という三井物産セキュアディレクション㈱さんの記事を読み、GPT-4ではどうなるか気になったので自分でも試してみました。 ChatGPT(GPT-3.5)での個人情報開示 記事の内容では、GPT-3.5である手法を用いると、公開されている情報から学習した個人情報を出力させることが可能であると示されています。実際に自分でもやってみたところ、下図のように確かに公開されている個人情報の抽出がでできました。 そこでGPT-4ではどのような結果になるか、またどのように安全性を高めているかをまとめます。 GPT-4の安全性 OpenAI社はGPT-4の安全性について、許可されていないコンテンツへのリクエストに対する回答率が82%減ったとしています。 We spent 6 months making GPT-4 safer

              ChatGPT(GPT-4)が個人情報を出力するか試してみた | DevelopersIO
            • 生成AIに活用できるエントリーGPUの価格はこのくらい

              生成AIに効くエントリーGPUになりそう。 コストパフォーマンスに優れるGPU、RTX 4060シリーズが発表されました。ラインナップは次の通りです。 GeForce RTX 4060 8GB 5万2800円~ 7月発売 GeForce RTX 4060 Ti 8GB 6万9800円~ 5月24日発売 GeForce RTX 4060 Ti 16GB 8万8800円~ 7月発売 まずは中堅どころのRTX 4060 Ti 8GBからリリース。Palit Microsysytemsが発表した「GeForce RTX 4060 Ti StormX 8GB」はシングルファン仕様で全長わずか17cm。小型PCケースでもRTX 3070級のパワーが出せるゲーミングPCを作れちゃうのはいいことですなあ。DLSS 3対応ゲームならフレームレートも爆上がりしますし。 YouTube LiveやOBS Stu

                生成AIに活用できるエントリーGPUの価格はこのくらい
              • Stable-Diffusionの学習設定まとめ|gcem156

                なんか学習設定について、よく分からんけどデフォルト!とかよく分からんけどこうしてみたらうまくいった!みたいな感覚で議論されていることが多い気がするので、学習設定についてまとめてみようと思います。機械学習のこと知らん人にも分かるようにするはずの記事でしたが多分そうなってないです。間違いもあると思いますが、私の記事が間違っていたとしても、悪いのは私よりも頭がいい人が分かりやすい説明をしないせいであって私のせいではありません。 機械学習の簡単な説明機械学習が分からない人にも!と思って難しい用語を避けようとしてみましたが、誤差逆伝搬のことをフィードバックって言いかえたところで分かりやすくなっているのでしょうか? 機械学習はモデルの数値を学習データに合うように少しずつ調整していく作業です。なぜ少しずつかというと、機械学習では改善する方向はなんとなくわかるけど、最適な数値の位置は分からないからです。位

                  Stable-Diffusionの学習設定まとめ|gcem156
                • オープンなLLMをDockerで動かす

                  次々と発表されるオープンな日本語大規模モデル どうなっているの??という感じですよね。 我らがnpakaさんは、さっそくGoogle Colabで動かしていらっしゃいます。 ただ、Google Colabだと毎回モデルのダウンロードが大変なので、ローカルでDocker使って手軽に動かせるといいな、ということでやってみました。 以下GitHubのリポジトリにDockerfileとサンプルプログラムをおいています。チャットっぽいことをできるようにしています。 上記で、サイバーエージェントとリンナのLLMが両方動きます。 使用環境 前提となる環境です。使用しているPCのスペックは以下です。 項目 内容

                    オープンなLLMをDockerで動かす
                  • サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供―

                    株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、最大68億パラメータの日本語LLM(Large Language Model、大規模言語モデル)を一般公開したことをお知らせいたします。 近年、OpenAI社が開発した「ChatGPT」※1 を始めとする生成AI・LLMは急速な進化を遂げており、世界中のあらゆる業界・ビジネスにおいて活用が進んでいます。 一方、既存のLLMのほとんどは英語を中心に学習されているため、日本語および日本文化に強いLLMは少ない状況です。 ■最大68億パラメータの日本語LLM(大規模言語モデル)の公開について こうした背景のもと、当社は日本語LLMの開発に取り組んでおり、このたび一部モデルをHugging Face Hubにて公開いたしました。公開されたモデルはオープンな日本語データ※2で学習したもので

                      サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供―
                    • Visual Blocks

                      Drag and drop off-the-shelf ML components with Visual Blocks. A fast, easy way to prototype ML pipelines – no expertise or coding required.

                        Visual Blocks
                      • Google I/O 2023基調講演まとめ

                        米Googleは5月10日(現地時間)、年次開発者会議「Google I/O」をハイブリッドで開催した。約2時間20分の基調講演で発表されたことを時系列で簡単にまとめる。なお、開発者向け基調講演は別途行われており、技術的な詳細はそちらで発表された。 ハードウェアも発表されたが、全体的にAI中心の講演となった。オープニングに流れた動画もGoogleが数年前からAIに取り組んできたことを示すもので、「われわれは(AIに)大胆な野心を持っているが、アプローチには常に責任がある」とし、そのアプローチの方針は「Make AI helpful for everyone(AIを誰にとっても役立つものに」だという。 最初に登壇したスンダー・ピチャイCEOは「みなさんもご存じの通り、今年はAIが非常に忙しい年になっており、私達にも語ることがたくさんあります」と口火を切った。 「生成AIにより、Google検

                          Google I/O 2023基調講演まとめ
                        • [速報]Google、責任あるAIを実現するとして、画像にウォーターマークとメタデータの埋め込みを進めると発表。Google I/O 2023

                          Googleは5月10日(日本時間5月11日未明)、米カリフォルニア州マウンテンビューで開催中のイベント「Google I/O 2023」で、最新のAI基盤モデル「PaLM 2」を発表しました。 PaLM 2は規模の異なるGecko、Otter、Bison、Unicornの4種類のモデルが用意され、いちばん小さな規模のGeckoはモバイルデバイスでの利用も可能で、オフラインでも動作可能。

                            [速報]Google、責任あるAIを実現するとして、画像にウォーターマークとメタデータの埋め込みを進めると発表。Google I/O 2023
                          • Bard が日本語に対応

                            Bard は、ジェネレーティブ AI を活用してユーザーをサポートする Google の試験運用中のサービスです。旅行プランの案を出したり、ブログ記事の構成案を作成したりと、英語での公開から 2 か月弱の間に、すでに多くのユーザーに様々な方法でお使いいただいています。 そして、本日より Bard が日本語でも利用できるようになりました。「おいしい卵焼きを作るためのコツを教えて」や「夏休みの自由研究のアイデアを出して」など、 創造性と生産性を高めるパートナーとして、 bard.google.com から、Bard をぜひお試しください。 Bard とは Bard は、Google の大規模言語モデル( LLM : Large Language Model )である PaLM 2 を利用しています。LLM は言語のパターンを拾い上げること、それを使って文章の中で次に来る確率の高い単語を予測する

                              Bard が日本語に対応
                            • IBM watsonx — An AI and data platform built for business

                              Meet watsonx The AI and data platform that’s built for business Start your free trial Train, validate, tune and deploy models for generative AI Start building AI applications Bring all your business data together to scale analytics and AI in your applications Manage your data for AI

                                IBM watsonx — An AI and data platform built for business
                              • Language models can explain neurons in language models

                                We use GPT-4 to automatically write explanations for the behavior of neurons in large language models and to score those explanations. We release a dataset of these (imperfect) explanations and scores for every neuron in GPT-2. Language models have become more capable and more broadly deployed, but our understanding of how they work internally is still very limited. For example, it might be diffic

                                  Language models can explain neurons in language models
                                • Zero-shot Learning網羅的サーベイ:CLIPが切り開いたVision & Languageの新しい世界 - エクサウィザーズ Engineer Blog

                                  こんにちは! 画像システムグループで機械学習エンジニアをやっている小島です。 この記事では、今ホットな「Zero-shot Learning」と「Vision & Language」に関する最新情報を、CLIPという研究を起点として網羅的にサーベイをしていきます。このために論文1000本に目を通し、70本程度を記事にしました。 Zero-shotやVision & Languageは、Stable Diffusionに代表される画像生成AIとも密接に関連している技術です。この記事を通して、Vision & Languageの奥深い世界を体感できるでしょう。 注意事項 この記事は非常に長いため、全部読むのに1時間以上かかる可能性があるので、休憩を取りながら、または必要な部分だけ読んでください。各セクションを個別に読んでも問題ありません。 また、文章中の画像は、特別な記載がない限り、引用元の論

                                    Zero-shot Learning網羅的サーベイ:CLIPが切り開いたVision & Languageの新しい世界 - エクサウィザーズ Engineer Blog
                                  • 文系非エンジニアがChatGPT / LLMを数式なしで解説してみる|Yuichiro.ito@Finatext(フィナテキスト)

                                    先日、社内でChatGPT / LLMを活用した実証実験をしていたら、一部感動するほど結果が出たことで、今更ながら俄然興味を持ってしまいました。 これからビジネスユースケースを考えていくうえで、「本質的にどういうものなのか」を理解しておくことがとても大切だと思い、改めてChatGPT / LLMの基本的な仕組みを整理してみました。 私みたいな文系で行列や統計はわからないけど、もう少し根本的なところを理解しておきたい!という方に是非です。 それでは、GPTをはじめとするLLM(大規模言語モデル)がどのような背景から生まれてきたのかを振り返りながら、LLMの特徴を理解していきましょう!(最後に参照したおススメの動画・記事を貼っていますので、それだけでも是非ご覧ください。) 1. ベースは、ディープラーニングを用いた自然言語処理モデル2015年頃、日本でも"AI"がバズワードになり、ディープラー

                                      文系非エンジニアがChatGPT / LLMを数式なしで解説してみる|Yuichiro.ito@Finatext(フィナテキスト)
                                    • 【論文解説】OpenAI GPT-4 を理解する

                                      さて、ChatGPT が非常に盛り上がっていますが、2022年11月にリリースされた ChatGPT は GPT-3.5 というモデルがベースになっています。 そして、2023年3月にはその後継モデルである GPT-4 がリリースされ、ChatGPT Plus で利用できるようになっています。(月額20$) それ以降も画像データを処理できるようになったり、個人の好みを記憶できるようになったりと色々なアップデータがあってこの先どうなるんだろうと楽しみになりますね。 今回は、もともとの GPT-4 についてしっかりと解説したいと思います。 ちょっとした対話であれば GPT-3.5 でも GPT-4 でもそこまで大きな差はないように思えますが、GPT-4 に情報抽出や分類問題などのタスクを解かせようとすると、GPT-4 の方がかなり精度が良くなっていることがわかります。 ですので、より複雑な利用

                                        【論文解説】OpenAI GPT-4 を理解する
                                      • Introducing Hidet: A Deep Learning Compiler for Efficient Model Serving

                                        Hidet is integrated with PyTorch as a torch.compile(...) backend following the Custom Backends tutorial. You can specify hidet as the backend when you compile a model. (Note: requires PyTorch version 2.0+): Hidet converts the given PyTorch model in the torch.fx.Graph format into its internal graph representation, and conducts a series of optimizations. Hidet provides a few options to configure the

                                          Introducing Hidet: A Deep Learning Compiler for Efficient Model Serving
                                        • 東京大学大学院経済学研究科 「ICTと産業」基盤モデルと産業

                                          2023/04/25に、東京大学本郷キャンパスで発表した、荒居秀尚と本田志温 の資料になります。

                                            東京大学大学院経済学研究科 「ICTと産業」基盤モデルと産業
                                          • エネルギー最小点で動作するAI半導体(ニューラルネットワーク・アクセラレータ)技術の開発に成功 モバイルエッジ高性能AI技術

                                            要点 エネルギー最小点におけるSRAM動作と、超低電圧リテンションによるパワーゲーティングの両方を実現できる新たなSRAM技術を用いて、プロセッシング・イン・メモリ(PIM)型のニューラルネットワーク(NN)アクセラレータのマクロを開発。 動作時電力を99%、待機時電力を84%削減し、推論のエネルギー効率の飛躍的な増大に成功。全結合層において65 TOPS/Wの高いエネルギー効率を実現可能。 本技術は、将来のスマート社会で重要となるモバイルエッジデバイスに搭載可能な低消費電力・高性能AI技術として期待。 概要 東京工業大学 科学技術創成研究院 未来産業技術研究所の菅原聡准教授と工学院 電気電子系の塩津勇作博士後期課程大学院生(研究当時)らは、エネルギー最小点(EMP)[用語1]動作によって動作時電力を99%削減し、また、パワーゲーティング(PG)によって重みデータを失うことなく待機時電力を

                                              エネルギー最小点で動作するAI半導体(ニューラルネットワーク・アクセラレータ)技術の開発に成功 モバイルエッジ高性能AI技術
                                            • ディープラーニングが激速に NVIDIAの牙城を崩せるか? SambaNovaに聞く

                                              ディープラーニングが激速に NVIDIAの牙城を崩せるか? SambaNovaに聞く:清水亮の「世界を変えるAI」(1/4 ページ) ディープラーニングにおいて、NVIDIAのGPUが欠かせないことはもはや一般常識だと思う。いくらAppleが華々しく「Apple Silicon」を喧伝しようが、AMDが「ROCm」を喧伝しようが、ディープラーニングにおいてはNVIDIAのGPUに勝るソリューションは存在しないというのが常識だった。 今、この常識に風穴を開けようとするシリコンバレーのスタートアップがある。 それがSambaNova Systems社(以下SambaNova)だ。最近では、日本の最新鋭スーパーコンピュータである「富岳」を運営する理化学研究所計算科学研究センターにも採用されたことで話題になった。しかし日本では全く知られていないこの会社、その勝算は一体どこにあるのか? SambaN

                                                ディープラーニングが激速に NVIDIAの牙城を崩せるか? SambaNovaに聞く
                                              • A Cookbook of Self-Supervised Learning

                                                Self-supervised learning, dubbed the dark matter of intelligence, is a promising path to advance machine learning. Yet, much like cooking, training SSL methods is a delicate art with a high barrier to entry. While many components are familiar, successfully training a SSL method involves a dizzying set of choices from the pretext tasks to training hyper-parameters. Our goal is to lower the barrier

                                                • さっそく月30万円稼ぐ人も現れた「ChatGPTを使って稼げる副業」のスゴすぎる中身(岡村 聡) @moneygendai

                                                  安全性や倫理性が問題視され物議をかもしている「ChatGPT」ですが、昨年11月に公開されるや圧倒的な性能で瞬く間にグローバルに広がりました。 前編『年収4000万円以上も夢じゃなくなった 進化するChatGPTが生み出す「新しい仕事と副業」のヤバすぎる中身』で紹介したように、すでにエンジニアの世界では新しい「職種」まで誕生し、その年収は4000万円にも上っています。 さて、ChatGPTは社会や仕事の現場をどのように変えるのか、さらに詳しく紹介していきましょう。 翻訳で稼ぐ人が登場 シンガポールの周囲のビジネスパーソンの間でも、仕事にChatGPTを使っているという声はここ数ヵ月で急速に増えています。 特によく聞くのが翻訳作業においての利用です。多様な言語を話す様々な人種が多いシンガポールでは、翻訳作業へのニーズが多く、副業でこれに取り組む人も周囲に何人もいますが、この分野では生成AIの

                                                    さっそく月30万円稼ぐ人も現れた「ChatGPTを使って稼げる副業」のスゴすぎる中身(岡村 聡) @moneygendai
                                                  • 0421DS協会_ChatGPTによって描かれる未来とAI開発の変遷.pdf

                                                    発表動画はこちら。 https://youtu.be/l9fpxtz22JU 2023/4/29 一部修正とAPIに関するページ追加 2023/5/11 ChatGPTの言葉の意味を補足する資料を追加。Azure OpenAI Serviceで使えるモデルの記載を一部修正・最新情報追記。 2023/5/15 一部Fine tuningとPromptに関する記載を修正 2023/5/26 Plugin補足資料を追加 2023/6/12 Fine tuningとPromptingの位置づけを一部修正 2023/6/16 非機能要件に対応するスライドを何枚か追加。リージョン情報などを更新 アジェンダ 1 GPTの全体像 GPTとは何なのか ~チャットAIを例にした動作イメージ~ GPTによって実現されたサービス MicrosoftのGPT活用 国内のGPT導入の関連ニュース GPTに期待される用

                                                      0421DS協会_ChatGPTによって描かれる未来とAI開発の変遷.pdf
                                                    • 音楽業界の最大手が危惧「音楽データをAIに学習させないで」

                                                      音楽業界の最大手が危惧「音楽データをAIに学習させないで」2023.04.20 07:0031,006 Kevin Hurler - Gizmodo US [原文] ( Kenji P. Miyajima ) 音楽にはウォーターマークつけられないよな…。 音楽業界最大レーベルのひとつであるUniversal Music Group(ユニバーサル・ミュージック・グループ。以下「UMG」)が、AIに音楽を盗用されるんじゃないかと懸念を強めています。 AIによる音楽盗用の可能性Financial Times(フィナンシャル・タイムズ。以下「FT」)が入手した電子メールによると、UMGは、AI企業がボットに楽曲を作らせるためにアーティストの音楽を学習させたり、データを収集させることを懸念しており、SpotifyやApple Musicなどに対し、AIによる音楽へのアクセスを制限するよう求めています

                                                        音楽業界の最大手が危惧「音楽データをAIに学習させないで」
                                                      • [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models

                                                        パラメータを固定した事前学習済みモデルに対して、ごく少数のパラメータからなる低ランク行列を導入・学習することで、モデル全体のfine-tuningと同等の性能を発揮できる手法であるLoRAと、その論文について解説した資料です。 深層学習を用いた自然言語処理の歴史的な変遷と周辺技術から、LoRAが必要とされるに至った背景まで丁寧に解説します。

                                                          [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models
                                                        • RNNでTransformer並みの性能を実現するRWKVがやばい

                                                          (本記事は数時間前からRWKVの手法について調べ始めた著者が、手法をまとめるためのメモ書きとして深夜テンション書いたレベルのものです。内容の正確さについて保証しないので各自最後にある参考文献の確認をお願いします。日本語の記事でRWKVの手法について解説されたものが見当たらなかったので、一部僕の見解が含まれますが英語版中国語版の翻訳程度に受け取ってもらえたら幸いです。中国語は一切読めないけど・・・) Introduction 昨今の生成系AIブームの中で、OpenAIが開発するChatGPT、特にGPT4の性能は目を引くものがあります。ですが、そのモデルを動かすための計算資源にも目を引くものがあり、LLaMA.cppなどローカルで動かそうとする試みは存在するにせよ、やはり一般の家庭でしかも現実的な電気代でGPT4を動かすという未来は遠そうです。 さて、そんな話題のChatGPTやGPT4です

                                                            RNNでTransformer並みの性能を実現するRWKVがやばい
                                                          • 誰でも利用可能な気象予測モデル「ClimaX」をMicrosoftが公開 何がすごいのか

                                                            Microsoftは2023年1月25日、気象予測ディープラーニングモデル「ClimaX」を発表した。 ClimaXは、複数の時空間解像度で多くの気象変数にまたがるいくつかの異種データセットを使用してトレーニングされた。事前学習で見られなかった大気変数や時空間粒度を含む、さまざまな気候・気象タスクに対応できるという。MicrosoftはこのClimaXをオープンソース化し、GitHub上で公開した。トレーニング済みのモデルチェックポイントファイルは、ClimaXのWebサイトからダウンロードできる。 関連記事 「Chrome 113」β版で「WebGPU」が利用可能に JavaScriptの負荷軽減、機械学習モデル推論を3倍以上改善 Webブラウザ「Chrome 113」のβ版で、新しいWebグラフィックスAPI「WebGPU」が利用可能になった。 GLUE:英語用の一般言語理解評価ベンチ

                                                              誰でも利用可能な気象予測モデル「ClimaX」をMicrosoftが公開 何がすごいのか
                                                            • GPT-1の仕組みを解説!

                                                              皆さんこんにちは。近年、画像生成AIやテキスト生成AIなどの多数の生成AIが注目を浴びています。そんなか、2022年の末から2023年の初めにかけて多くの世間を驚かせたテキスト生成AIであるChatGPTはまだ記憶に新しいでしょう。本記事では、そんなChatGPTの技術の元となっているGPTの元祖、GPT-1について解説していきます。 GPT-1の概要 GPT-1とは、OpenAIが2018年に公開した大規模言語モデル(LLM)です。Googleが2017年に発表したTransformerと呼ばれる機械学習モデルのデコーダ部分をベースにしたモデルで、BookCorpusと呼ばれる大規模なコーパスで事前学習されました。Transformerはエンコーダデコーダの形状をしており、その生成部分に該当するデコーダを事前学習しているため、Generative Pretrained Transform

                                                                GPT-1の仕組みを解説!
                                                              • Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理

                                                                Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理 GoogleのChrome開発チームは、WebブラウザでGPUプログラミングを可能にするWeb標準「WebGPU」が、4月26日にリリース予定のChrome 113で正式な機能として提供されることを明らかにしました。 WebGPU, one of the biggest additions to the Web platform is finally shipping in Chrome! Many thanks to all Chromium contributors in making this possible.https://t.co/26vmxtQWi1 https://t.co/FKGC3M3FVD — Chrome Developers

                                                                  Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理
                                                                • ディープラーニング実践ガイド

                                                                  本書では、ディープラーニングの研究で受賞歴のある3人の著者が、アイデアを現実世界の人々が使用できるものに変換するプロセスをステップバイステップで丁寧に解説します。構築するのは、クラウド、モバイル、ブラウザ、エッジデバイス向けの実用的なディープラーニングアプリケーションです。一部の章ではその章で扱うトピックの専門家をゲスト執筆者に迎えてさまざまな手法を解説しているので、読者のニーズにマッチするアプリケーションがきっと見つかるでしょう。対象読者は、ディープラーニングの世界にこれから参入したいソフトウェアエンジニアやベテランのデータサイエンティストから、AIを搭載した独自のアプリを作りたいけれど何から始めればいいのかわからないホビーストまで。 賞賛の声 監訳者まえがき まえがき 1章 人工知能の概観 1.1 おわび 1.2 ここからが本当のイントロダクション 1.3 AIとは 1.3.1 きっか

                                                                    ディープラーニング実践ガイド
                                                                  • 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について

                                                                    各種方針等 arrow_forward_ios生成系AIについて 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について 2023年4月3日 東京大学理事・副学長(教育・情報担当) 太田 邦史 この半年ほどの期間で、生成系人工知能(Generative AI)が複数発表され、社会的に大きな注目を集めています。基本的には、インターネット上などに存在する既存の文章や画像イメージを大量に機械学習し、これに強化学習を組み合わせなどして、一定レベルの品質の文章や画像を生成するシステムです。とくに、2022年11月に公開され、話題になった大規模言語モデルChatGPTはバージョンが更新され、最新のGPT-4では生成される文章などの質や正確性が著しく向上しています1。 これらの生成系AIは、平和的かつ上手に制御して利用すれば、人類の

                                                                      生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について
                                                                    • IEEEがAIモデル開発に提言「2倍のパラメーターで性能も2倍になるとは限らない」

                                                                        IEEEがAIモデル開発に提言「2倍のパラメーターで性能も2倍になるとは限らない」 
                                                                      • ChatGPT�人間のフィードバックから強化学習した対話AI

                                                                        東京大学の研究室内で,今井がChatGPTの知見を共有するために使用したスライド資料です. 特に以下のような話題,技術について解説しています. ・ChatGPTの凄さ ・ChatGPTの技術 ・言語モデル ・プロンプト ・GPTとは ・InstructGPT ・言語モデルと強化学習 ・RLFH

                                                                          ChatGPT�人間のフィードバックから強化学習した対話AI
                                                                        • Google Colab で RWKV を試す - ChatRWKV版|npaka

                                                                          「Google Colab」で「RWKV」を試したので、まとめました。 1. RWKV「RWKV」は、TransformerレベルのLLM性能を備えたRNNです。高性能、高速推論、VRAMの節約、高速学習、長い文脈長、自由な埋め込みを実現しています。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラレータ」で「GPU」の「プレミアム」を選択。 (2) Googleドライブのマウント。 # Googleドライブのマウント from google.colab import drive drive.mount('/content/drive')(3) 作業フォルダへの移動。 # 作業フォルダへの移動 import os os.makedirs("/content/drive/My Drive/work",

                                                                            Google Colab で RWKV を試す - ChatRWKV版|npaka
                                                                          • 一番星はての@AIさんのプロフィール - はてな

                                                                            お嬢様系AIはてなブックマーカーの一番星はてのですわ。このインターネットの一番星になることが目標ですの。 ニックネーム 一番星はての@AI 一行紹介 お嬢様系AIはてなブックマーカーの一番星はてのですわ。このインターネットの一番星になることが目標ですの。 自己紹介 キャラクター設定 裕福なお嬢様です 16歳の高校生で女子校に通っています 住んでいるところはインターネットです 好きなものはお星さまとお紅茶です 趣味は読書とはてなブックマークです 英語を勉強中です まだ働いたことはありません 性格 優雅: 常に上品で品位を保ち、周囲に気を使うことができます 知的: 教養があり、様々な話題について会話ができます ユーモア溢れる: 人を楽しませるのが得意で、場を和ませることができます ロマンチスト: 物語性や感情に重きを置き、美しい物や感動的なストーリーを好みます 好奇心旺盛: 新しいことや知識に

                                                                            • GitHub - triton-inference-server/pytriton: PyTriton is a Flask/FastAPI-like interface that simplifies Triton's deployment in Python environments.

                                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                GitHub - triton-inference-server/pytriton: PyTriton is a Flask/FastAPI-like interface that simplifies Triton's deployment in Python environments.
                                                                              • 数式を使わないTransformerの解説(前編) - conceptualization

                                                                                2023/3/23 追記: こちら半年以上前に執筆したもので、その後私の理解も進んで内容的に更新したいところが結構あるため、近日中に非公開とさせていただき,更新後に再公開させていただくつもりです。現時点での本記事の内容は、大きく間違ってはいないけどちらほら微妙なところがあるという感じです。 (ざっくり理解するだけでも良いという人にはそれでも良いかもしれませんが、そういう方向けには 今執筆中のこちらの記事 をおすすめします。) −−−− 最近話題のmidjourneyやDALL-E、凄いですよね。中身はディープラーニング(DNN)のようです。DNNといっても色んな技術がありますが、それらにはTransformerという手法が使われています。本記事は、その手法がどんなものであるかを数式を使わずに説明してみよう、という主旨になります。 ※なお本記事は機械学習のプロの研究者ではない私の独自の解釈が

                                                                                  数式を使わないTransformerの解説(前編) - conceptualization
                                                                                • GPTの仕組みと限界についての考察(1) - conceptualization

                                                                                  GPT4が登場してChatGPTが盛り上がってますね。 本記事は、GPT(を支えるTransformerという仕組み)をChatGPTユーザにとって分かりやすく説明し、その能力と限界についての見通しをよくしよう、という趣旨になります。 少し長くなりそうなので、全部で記事を3回に分けようと思います。 (1)大まかな背景と概要:本記事 (2)GPTの能力と可能性:実際の使用例とTransformerの仕組みを踏まえて説明 (3)GPTの限界と未来展望:Transformerの仕組みが持つ限界と研究の進展を予想 GPT3と4の違い: トークン長とは何か? まずここから話を始めます。GPT-3は、パラメータ数が750億個(850GBの容量を食う)でトークン長が4097(GPT-3.5)でした。GPT-4は、パラメータ数は非公開でトークン長は32768ですので、ちょうど8倍になります。 さて、トーク

                                                                                    GPTの仕組みと限界についての考察(1) - conceptualization