並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 1840件

新着順 人気順

ディープラーニングの検索結果201 - 240 件 / 1840件

  • 「ステート・オブ・AI ガイド」サービス終了のお知らせ

    大変残念なお知らせですが、本ブログ「ステート・オブ・AI ガイド」のサービスを 2023 年 3 月 31 日 (金) をもちまして正式に終了させていただくこととなりました。 個人的な話で恐縮ですが、最近、私の健康状況が良くなく、病院による検査・診断の結果、重度の疾患を患っていることが判明しました。 この状況下で、今後の検査・治療に専念するため、ブログを続ける時間、また、私の本職などの時間もほとんど取れないことから、このような決断をさせていただきました。この決断は私にとって非常に難しいものであり、皆様にご迷惑をおかけすることを心よりお詫び申し上げます。 なお、具体的なサービスの解約については、以下のようにお願い申し上げます: 月間 (monthly) 個人購読者: ログインした後右上に表示されるメニューから「アカウント」の画面に進んでいただき「Cancel subscription」をクリ

      「ステート・オブ・AI ガイド」サービス終了のお知らせ
    • 基盤モデルを使ったTuringの完全自動運転戦略

      基盤モデルが自動運転車を操ってる筆者のイメージ created by DALL-E Turingで機械学習チームでエンジニアをしている井ノ上です。(Twitter: いのいち) Turingは2030年までにあらゆる場所で自動走行が可能で、ハンドルが必要ない完全自動運転システム(Level 5自動運転)の開発を目指して様々な技術の調査や検証を行っています。このテックブログではTuringがどのようにしてLevel 5完全自動運転にアプローチしていくのか、近年の基盤モデルやGoogleのロボティクス研究から考えていきたいと思います。 TuringのLevel 5への仮説 Level 5の自動運転をどのようにして作るのか。これは多くの人が気になるところだと思います。TuringではLevel 5自動運転の実現の鍵は「知能」にあると考えています。従来の自動運転の開発によって、LiDARやレーダー

        基盤モデルを使ったTuringの完全自動運転戦略
      • GitHub - alibaba/TinyNeuralNetwork: TinyNeuralNetwork is an efficient and easy-to-use deep learning model compression framework.

        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

          GitHub - alibaba/TinyNeuralNetwork: TinyNeuralNetwork is an efficient and easy-to-use deep learning model compression framework.
        • Googleらが共同開発、AI/機械学習を支援するオープンソース技術「OpenXLA」とは

          Googleは2023年3月8日(米国時間)、AI(人工知能)/ML(機械学習)業界の多くの主要企業が共同開発を進めているオープンソースMLコンパイラエコシステム「OpenXLA」(XLA:Accelerated Linear Algebra)の利用と貢献を可能にしたと発表した。 OpenXLAの開発にはAlibaba、Amazon Web Services(AWS)、AMD、Apple、Arm、Cerebras、Google、Graphcore、Hugging Face、Intel、Meta、NVIDIAなどが参加している。 利用するフレームワーク増加に伴うサイロ化が課題に 現在のML開発、導入では「TensorFlow」「PyTorch」「JAX」といったMLフレームワークや、多種多様なハードウェアの利用により、インフラが断片化、サイロ化していることが問題となっている。問題の背景には、

            Googleらが共同開発、AI/機械学習を支援するオープンソース技術「OpenXLA」とは
          • GPT-4

            We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks. We’ve created GPT-4, the latest milestone in OpenAI’s effort in scalin

              GPT-4
            • https://twitter.com/ImAI_Eruel/status/1635639388582338563

                https://twitter.com/ImAI_Eruel/status/1635639388582338563
              • 「Azure AI」のオープンソース技術を活用したアプリ構築は何がすごい? データサイエンスタスクをより簡単に構築

                「Azure AI」のオープンソース技術を活用したアプリ構築は何がすごい? データサイエンスタスクをより簡単に構築:より迅速かつ柔軟にインテリジェントアプリを構築 Microsoftはデジタルイベント「Azure Open Source Day」で、Microsoft AzureのAIサービスポートフォリオ「Azure AI」で提供される最新のオープンソース技術を使用して、より迅速かつ柔軟にインテリジェントアプリを構築する方法を紹介した。 Microsoftは2023年3月7日(米国時間)、デジタルイベント「Azure Open Source Day」を開催し、Microsoft AzureのAIサービスポートフォリオ「Azure AI」で提供される最新のオープンソース技術を使用して、より迅速かつ柔軟にインテリジェントアプリを構築する方法を紹介した。 Azure AIは、「Azure Ap

                  「Azure AI」のオープンソース技術を活用したアプリ構築は何がすごい? データサイエンスタスクをより簡単に構築
                • Foundation Model and Robotics | 基盤モデルとロボティクス

                  東京大学松尾豊研究室のメンバー中心に、講義を行っている深層強化学習 スプリングセミナー2023の第6回目の前半の講義である「基盤モデルとロボティクス」の講義資料を改変した資料です。(講義は2023/3/3に実施) 本講義では、最近話題の『ChatGPT』等にも使用されている『基盤モデルやTransformer』についてお話し、基盤モデルをロボティクスへの活用事例や今後の展開についてもお話ししました。 演習(ハンズオン)ではGPT2,CLIP,Whisperを取り扱っています。 本講義資料は、深層強化学習 スプリングセミナー2023の第6回目の前半60分の講義資料がベースになっています. https://deeplearning.jp/drl-course-2023sp/ 本講義の到達目標: ・基盤モデルやTransformerの概要を理解する ・基盤モデルとロボティクスの研究事例を把握し、

                    Foundation Model and Robotics | 基盤モデルとロボティクス
                  • ChatGPT の基礎技術!GPT-3 と Few-shot learning

                    ChatGPT ChatGPT は OpenAI が作成したチャットボットです。何か話しかけると、次の例のように雑談相手になってくれます。 ChatGPTと雑談 ChatGPT が注目されているのは、その守備範囲の広さゆえです。問いかけの仕方次第で、翻訳・プログラミング・文書校正など広範なタスクをこなすことができます。個人的には、自分の書いているプログラムがうまく動かない時によく助けてもらっています。 CharGPTでデバッグ また、文脈を考慮した推論(ざっくり言えば「空気を読む」こと)は自然言語処理システムにとって難易度が高い分野とされています。試しに次のように尋ねてみました。ChatGPT からの返答はとても自然なものに思えます。 ChatGPTで文脈理解 ここでの例に限らず、ChatGPT は極めて多様に活用できるでしょう。また、ChatGPT の API が公開されたことで、

                    • Ko Harada 🇺🇸🇯🇵 on Twitter: "Chat GPTについて東大 松尾研究所のこの資料がすごくわかりやすい。 後半には 「医療に特化した学習をさせれば、医療専用のChat GPTが作れる」 「ほとんど全てのホワイトカラーに、2~3年以内に影響が出る」 という恐ろしいことがさらっと書かれています。 #ChatGPT https://t.co/0xqp40cVwg"

                        Ko Harada 🇺🇸🇯🇵 on Twitter: "Chat GPTについて東大 松尾研究所のこの資料がすごくわかりやすい。 後半には 「医療に特化した学習をさせれば、医療専用のChat GPTが作れる」 「ほとんど全てのホワイトカラーに、2~3年以内に影響が出る」 という恐ろしいことがさらっと書かれています。 #ChatGPT https://t.co/0xqp40cVwg"
                      • 【2023年版】Stable Diffusion モデルまとめ | BLOG CAKE

                        こんにちは、画像生成AIでひたすら猫のイラストを生成している じょじお(@jojio‗illust)です。 この記事にStable Diffusionのモデルをぼちぼちとまとめています。随時更新予定です。

                          【2023年版】Stable Diffusion モデルまとめ | BLOG CAKE
                        • 【全体公開】今から追いつく!AIイラスト超入門|スタジオ真榊【AIイラスト術解説】|pixivFANBOX

                          こちらの記事は2023年3月9日に投稿された旧バージョンです。特段の理由がなければ、最新事情を盛り込んだ「AIイラストが理解る!StableDiffusion超入門」をご覧ください。 こんばんは、スタジオ真榊です。このところ、ツイッター経由で公式サイトやこちらのFANBOXへのアクセスが急増しており、これからAIイラストを始め...

                            【全体公開】今から追いつく!AIイラスト超入門|スタジオ真榊【AIイラスト術解説】|pixivFANBOX
                          • JDLA緊急企画!「生成AIの衝撃」~ ChatGPTで世界はどう変わるのか? ~

                            JDLA緊急企画!「生成AIの衝撃」~ ChatGPTで世界はどう変わるのか? ~ 2020年のGPT-3の衝撃以来、生成AIの進展は従来のディープラーニング技術の進展とは一線を画す、破壊的な変化となっています。 2022年11月末に発表されたChatGPTでは日本語が極めて自然な形で使えるようになり、 日本でも急激に関心が高まっています。 本イベントでは、「生成AIの衝撃」セミナーでは大注目のChatGPTを中心に、「何がすごいのか」、「どうやって出来ているのか」、「いま世界で何が起きているのか」、「日本は大丈夫なのか」、「何が変わるのか」、等々、様々な観点から有識者にお話しを伺います。 連日報道されるニュースなどを見て、下記の様に感じていた方は必見です! 「今の動向をどう見たら良いのか、分からない」 「ChatGPTに代表される、生成AIの仕組みなどについて知りたい」 「今、話

                              JDLA緊急企画!「生成AIの衝撃」~ ChatGPTで世界はどう変わるのか? ~
                            • NLPとVision-and-Languageの基礎・最新動向 (1) / DEIM Tutorial Part 1: NLP

                              DEIM2023 第15回データ工学と情報マネジメントに関するフォーラム チュートリアル講演資料 Part1: NLP

                                NLPとVision-and-Languageの基礎・最新動向 (1) / DEIM Tutorial Part 1: NLP
                              • NLPとVision-and-Languageの基礎・最新動向 (2) / DEIM Tutorial Part 2 Vision-and-Language

                                DEIM2023 第15回データ工学と情報マネジメントに関するフォーラム チュートリアル講演資料 Part2: Vision-and-Language

                                  NLPとVision-and-Languageの基礎・最新動向 (2) / DEIM Tutorial Part 2 Vision-and-Language
                                • 畳み込みニューラルネットワーク(CNN)をわかりやすく基本から実装まで解説

                                  本記事では、コンピュータビジョン分野に大きな進展をもたらしたディープラーニングアルゴリズムであるCNN(convolutional neural network, 畳み込みニューラルネットワーク)について解説します。 畳み込みニューラルネットワーク(CNN)とは CNN(convolutional neural network, 畳み込みニューラルネットワーク)は主に画像認識の分野で用いられるディープラーニングアルゴリズムです。データを学習することで入力画像から特徴量を抽出しそれらを区別することができるようになるため、ディープラーニングを画像認識の分野に応用する上で大変重要なものとなっています。 畳み込みニューラルネットワーク(CNN)の起源 まず、CNNがどのように生まれたのかを解説します。少しつまらないお話かもしれませんが、CNNを理解する上で知っておくべきことです。 画像データの学習

                                    畳み込みニューラルネットワーク(CNN)をわかりやすく基本から実装まで解説
                                  • 日本語に特化した13億パラメータのGPT言語モデルを公開|rinna株式会社

                                    ~商用利用可能なライセンスで日本語のNLPコミュニティに貢献~ rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン"クリフ"チェン、以下rinna社)は、日本語に特化した13億パラメータのGPT言語モデルを開発し、公開しました。 ■背景 rinna社はこれまでに、日本語の自然言語処理 (NLP) に特化したGPT (3.3億パラメータ) やBERT (1.1億パラメータ) の事前学習モデルを公開し、多くの研究・開発者にご利用いただいています。最近のNLPに関する研究では、モデルのパラメータ数が多いほど高い性能であることが知られています。 そこでrinna社は、これまでに公開してきたモデルより大規模な13億パラメータを持つ日本語に特化したGPT言語モデルを開発し、日本語のNLPコミュニティに貢献するために、この言語モデルをNLPモデルライブラリ Hugging Face に商用利用可

                                      日本語に特化した13億パラメータのGPT言語モデルを公開|rinna株式会社
                                    • 自社OCRエンジン「NineOCR」の学習効率化のため SageMaker Training を導入した話 - Sansan Tech Blog

                                      はじめに NineOCR とは NineOCR が抱える課題 Amazon SageMaker Training とは SageMaker Training の始め方 事前準備 AWS が提供しているコンテナイメージを拡張する方法 独自のコンテナイメージに SageMaker Training Toolkit をインストールする方法 スクラッチでコンテナイメージを作成する方法 まとめ 学習ジョブの実行 学習結果の確認 終わりに はじめに こんにちは、研究開発部の石井です。 本エントリーでは、弊社の OCR エンジン「NineOCR」の開発フローに SageMaker Training を導入した話を紹介します。 NineOCR とは NineOCR は Sansan が独自に開発した名刺特化の OCR エンジンです。 名刺をデータ化するフローの中で実際に活用されており、タスクの高速化・高精

                                        自社OCRエンジン「NineOCR」の学習効率化のため SageMaker Training を導入した話 - Sansan Tech Blog
                                      • OpenAI API で提供されている モデル まとめ|npaka

                                        1. OpenAI APIのモデル「OpenAI API」は、用途に応じて「GPT-3.5」をはじめとする様々なモデル を提供しています。 ・GPT-3.5 : 自然言語とコードを理解および生成する最新モデル。 ・DALL-E : 自然言語から画像を生成・編集するモデル ・Whisper : 音声をテキストに変換するモデル ・Embeddings : 埋め込み (ベクトル表現) を生成するモデル ・Codex : コードを理解および生成するモデル ・Moderation : センシティブおよび 安全でない文章を検出するモデル ・GPT-3 : 自然言語を理解および生成する旧モデル 2. GPT-3.5「GPT-3.5」は、自然言語とコードを理解および生成する最新モデルです。最も高性能で費用対効果の高いモデルは、チャット用に最適化されていますが、既存タスクにも適している「gpt-3.5-tu

                                          OpenAI API で提供されている モデル まとめ|npaka
                                        • https://twitter.com/rootport/status/1631618704172810240

                                            https://twitter.com/rootport/status/1631618704172810240
                                          • 実践!大規模言語モデル / 1000億パラメータ越えモデルを動かすには?

                                            こんにちは。Turing株式会社の機械学習チームでインターンをしている九州大学修士1年の岩政(@colum2131)です。 Turingは完全自動運転EVの開発をするスタートアップです。 自動運転技術において、カメラやセンサ情報は正確な制御をする上で不可欠な要素である一方、自然言語やマルチモーダルな処理が必要となる状況もしばしば存在します。特に完全自動運転車においては、音声認識によってドライバーの音声命令を認識し、リアルタイムで適切な制御を行うことや、複雑な交通状況の背景にあるコンテクストを理解させるといった要求が出てきます。そのために、「基盤モデル」と呼ばれるような、自然言語処理を含む大規模モデルの学習が必要になってくると、私たちは考えています。 そこで本記事では、言語モデルの発展の流れとTuringが目指す基盤モデルの開発について紹介します! 1. 言語モデルとは? 近年の言語処理モデ

                                              実践!大規模言語モデル / 1000億パラメータ越えモデルを動かすには?
                                            • AutoML チュートリアル(HPOとNAS)

                                              AutoMLに関するチュートリアル資料です。主に,ハイパーパラメータ最適化(HPO)とニューラル構造探索(NAS)に関する説明をしています。

                                                AutoML チュートリアル(HPOとNAS)
                                              • Stable Diffusion開発元が3Dアニメーション生成AI「Stability For Blender」を発表、アニメーション生成や3Dモデルのテクスチャ生成などが可能

                                                画像生成AI「Stable Diffusion」の開発元であるStability AIが、3DCGソフトウェア「Blender」上で動作するAI搭載拡張機能「Stability For Blender」を公開しました。Stability For Blenderでは「Blenderで作成したラフ画像を元に好みの画像を生成」「テクスチャのラフ画像からリアルなテクスチャ生成」「アニメーションを生成」といったAI機能を無料で使えます。 Stability for Blender https://platform.stability.ai/docs/integrations/blender Stability AI Announces Stability For Blender; Text To Image Creation in 3D — Stability AI https://ja.stabi

                                                  Stable Diffusion開発元が3Dアニメーション生成AI「Stability For Blender」を発表、アニメーション生成や3Dモデルのテクスチャ生成などが可能
                                                • 【記事更新】私のブックマーク「第一言語獲得から考える人工知能」 – 人工知能学会 (The Japanese Society for Artificial Intelligence)

                                                  折田 奈甫(早稲田大学理工学術院) 1.はじめに 深層学習の発展は素晴らしいが,第一言語獲得を研究する言語学者としては「ちょっと待った!」と言いたくなる瞬間がある.例えば,以下のような発言や記述を研究発表や論文などで見聞きすることが増えた. 深層学習のように人間も大量のデータから統計的に学習しているのではないか.刺激の貧困は存在せず,生得的知識など必要ない.子供は白紙の状態から,あるいは最小限の非言語的知識・能力を使って,言葉を大量に聞いて覚えて話せるようになる. 脳についてはわかっていないことが多いので,深層学習を使ったリバースエンジニアリング的な認知科学の研究があってもいいのでは. ニューラルネットワークは神経科学的に妥当なモデルである.そのうえ,人間が行うような情報処理タスクにおいて高い汎用性と学習能力を示している.ニューラルネットワークは人間の認知メカニズムとして妥当な仮説なのでは

                                                  • ChatGPTやAI関連で面白かった・気になった事例まとめ - Qiita

                                                    はじめに 前回のChatGPTで電卓アプリを作れるか試した件について、Twitter等からも反応を見ることができて嬉しかったです。 おまけの評判が良かったので、私がここ最近で気に入ってるChatGPT関連の情報をまとめさせていただきます。 ※私も前回おまけをまとめていて、本編よりもこっちを見てほしい!!と途中から思っていたので、評判が良くて嬉しかったですw ChatGPT 感情回路を埋め込み 大学の授業レポート代行 AlexaでChatGPTとやり取り ロボット制御に応用 Pythonコードを、JavaScriptに書き換え p5.jsで冬の情景を描画 デバイスの傾きで左右に回転する三角形をHTML上で描画 Googleアドセンス合格した方法 VSCodeのChatGPTプラグイン ChatGPTを日本企業はどう使う? その他AI言語モデル関連 ローカルでも動かせる言語モデル「FlexGe

                                                      ChatGPTやAI関連で面白かった・気になった事例まとめ - Qiita
                                                    • Introducing ChatGPT and Whisper APIs

                                                      Developers can now integrate ChatGPT and Whisper models into their apps and products through our API. ChatGPT and Whisper models are now available on our API, giving developers access to cutting-edge language (not just chat!) and speech-to-text capabilities. Through a series of system-wide optimizations, we’ve achieved 90% cost reduction for ChatGPT since December; we’re now passing through those

                                                        Introducing ChatGPT and Whisper APIs
                                                      • A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT

                                                        Pretrained Foundation Models (PFMs) are regarded as the foundation for various downstream tasks with different data modalities. A PFM (e.g., BERT, ChatGPT, and GPT-4) is trained on large-scale data which provides a reasonable parameter initialization for a wide range of downstream applications. BERT learns bidirectional encoder representations from Transformers, which are trained on large datasets

                                                        • CQ出版『改訂TensorFlow版 算数&ラズパイから始めるディープ・ラーニング』を発売|fabcross

                                                          CQ出版は『改訂TensorFlow版 算数&ラズパイから始めるディープ・ラーニング』を2023年3月15日に発売する。 2018年に発刊された同タイトルの書籍では、フレームワークにChainerを使っていたが、今回出版されるのは、TensorFlowに対応した改訂版だ。ディープラーニングの基礎知識とプログラムへ落とし込む方法を、ステップ・バイ・ステップで解説し、Raspberry Piで動かす方法も合わせて紹介する。 全6部構成。第1部「ディープ・ラーニングの世界へようこそ」では、ディープラーニングでできるようになることを紹介するほか、3大アルゴリズムについての概要を解説する。 第2部「ラズパイ&PC試すための準備」では、Googleのディープラーニングフレームワーク「TensorFlow」について解説。TensorFlowやAnacondaのインストール方法に加え、サンプルプログラムを

                                                            CQ出版『改訂TensorFlow版 算数&ラズパイから始めるディープ・ラーニング』を発売|fabcross
                                                          • 【2023年版】機械学習の日本語無料学習教材まとめ - Qiita

                                                            言語&開発基礎編 PythonやSQLなどの言語と開発環境に関連することをまとめました。 機械学習に関する教材はこの次のセクションにまとめてあります。 学習環境 インストール及び使い方チュートリアルのサイトと、ある程度使い慣れた後に役立つtips集を各エディタでまとめました。 Google Colaboratory Python初学者にとって最もわかりやすいPython実行環境です。プログラミングは初めて!という方はまずこのGoogle Colaboratory(通称: Colab)から始めてみて、使い方がある程度わかったら、そのまま次のセクションのPython編に移りましょう。 Pythonプログラミング入門 難易度: ★☆☆ 東京大学の公開しているPython講座ですが、冒頭でColabの使い方を解説しています。使ったことのない方はこちらから! Google Colabの知っておくべき

                                                              【2023年版】機械学習の日本語無料学習教材まとめ - Qiita
                                                            • ChatGPTで騒いでる場合じゃない。 AI研究者が「FlexGen」をゲームチェンジャーと呼ぶ理由

                                                              ChatGPTに世間が沸いている。 長年この分野を見てきた者としては「ちょっと沸きすぎ」のようにも見える。深層学習を使った会話ロボットは、何もChatGPTが初めてというわけではない。 ところが、世界中が驚かざるを得ないゲームチェンジャーが現れた。 その名も「FlexGen」と言う。2月15日に公開された。 特筆すべきは、FlexGenが、ChatGPTなどの大規模言語モデルを「従来の100倍高速に動かせる」上に、NVIDIA Tesla T4という、わずか16GBのメモリーしかないGPUでその性能を使えるということだ。 つまり、大規模言語モデルを秋葉原で売っているパソコン程度で動かせる新しいフレームワークが登場したことになる。 このインパクトがどれほどすごいのかを解説してみよう。 目次: 「Google翻訳」と「大規模言語モデル」は技術的にかなり近い 会話AIの正体とは何か ChatGP

                                                                ChatGPTで騒いでる場合じゃない。 AI研究者が「FlexGen」をゲームチェンジャーと呼ぶ理由
                                                              • 基盤モデル(Foundation Model)とは?

                                                                用語「基盤モデル」について説明。大量のラベルなしデータを使って事前学習し、その後、幅広い下流タスクに適応できるようにファインチューニングする、という2段階の訓練工程を踏んだ、1つのAI・機械学習モデルのことを指す。 連載目次 用語解説 基盤モデル(Foundation Model:ファウンデーションモデル、ファンデーションモデル)とは、大量のデータを用いてトレーニング(事前学習)したAI・機械学習モデルのことである。このトレーニングは、一般的に正解ラベルのないデータを使用した自己教師あり学習で行われる。その後、基盤モデルは、幅広い下流タスクに適応できるように再トレーニング(主にファインチューニング)される。この2段階の訓練工程が特徴であり、1つの基盤モデルで多様なタスクに適応できること(マルチタスク能力)が大きな特徴だ(図1)。 基盤モデルは、2021年にスタンフォード大学のHAI(人間中

                                                                  基盤モデル(Foundation Model)とは?
                                                                • Pythonで生存時間解析(Cox比例ハザードモデル, DeepSurv) - Qiita

                                                                  生存時間解析って? 生存時間解析とは何らかのイベントが発生するまでの時間を生存時間として統計的に分析する方法のことを言います。 医学で使用されることが多いです。 代表的な例としてがん患者の余命期間に関する分析があります。がん発症から死亡までの期間に対して分析を行います。 経済の分野だと経済学、経営学、マーケティングでも使用されます。 労働者が労働市場に参加している期間、企業が設立してから倒産するまでの期間、顧客が会員登録してから登録解除するまでの期間など、、、 その他さまざまな領域で応用されます。 すでに多くの方がこの手法について解説されていますのでここでは基本のおさらいとちょっとした発展の内容を記事にしようと思います。 カプランマイヤー推定法 生存時間解析では打ち切りデータを考慮して分析できるという特徴があります。 「時間」に関する分析を行っているので分析対象を観察できない場合があります

                                                                    Pythonで生存時間解析(Cox比例ハザードモデル, DeepSurv) - Qiita
                                                                  • 自宅で動くChatGPTと噂のFlexGenをDockerで手軽に動かす

                                                                    自宅で動くChatGPTと噂のFlexGenを試す shi3zさんが興奮して動かしていたFlexGen 関係する記事は以下 ツヨツヨGPUが無いと動かないと思っていたのですが、タイムラインでミクミンPさんが、RTX3060でFlexGenを動かしているツイートを発見。 「RTX3060なら自分も持っている!」ということで、試してみることにしました。 追記: 私がこの記事で動かしているのは小さいモデルです。とりあえずお試しで動かしただけで、shi3zさんが動かしているモデルとは異なります。 性能の参考にする記事ではないので、ご承知ください。より大きいサイズのモデルの使用に関しては、FlexGenの公式リポジトリを参照ください。私も今後試したら追記していきます(現状、私の環境では動かせてないです)。 FlexGenをDockerで動かす 結果的には、Dockerを使うことで簡単に動かせました。

                                                                      自宅で動くChatGPTと噂のFlexGenをDockerで手軽に動かす
                                                                    • (数式を使わない) Transformer の直感的な説明 / 真面目なプログラマのためのディープラーニング入門

                                                                      (数式を使わない) Transformer の直感的な説明 RNN の欠点 Transformer はこれをどう解決したか Transformer の動作原理 複数の要素間の関係を考慮する (Self-Attention、自己注意) 要素の順序を考慮する (Positional Encoding、位置エンコーディング) まとめ 概要: ChatGPT などで使われている Transformer モデルは、 ニューラルネットワークの世界にいくつかの革新的なアイデアをもたらした。 本記事では、プログラマに理解しやすい形でそれらのアイデアを解説する。 実際に使われている数学の詳細には触れない。 (技術的解説については元論文 Attention is All You Need か、 その注釈版である The Annotated Transformer を参照のこと。 日本語では この解説 がわかり

                                                                      • FlexGenをDockerで使ってみた

                                                                        本記事では、FlexGenをDockerで使う方法を紹介します。 ※nvidia-docker2が導入済みの、DockerからGPUが使用できる環境でなければ実行できませんのでご注意ください。 FlexGenとは ライセンス:Apache-2.0 license FlexGenとは、自前のPCなど計算資源の小さいマシン上で、大規模言語モデル(Large Language Model: LLM)を動作させることを可能にする技術です。 FlexGenについては、既に概要を詳しく説明している記事が沢山出ていますので、ここでは説明を省略します。詳細は、リポジトリや論文で確認することができます。 論文:High throughput generative inference of large language models with a single gpu DockerでFlexGenを動作させる

                                                                          FlexGenをDockerで使ってみた
                                                                        • LoRAを使った学習のやり方まとめ!好きな絵柄・キャラクターのイラストを生成しよう【Stable Diffusion】

                                                                          を一通りご紹介するという内容になっています。 Stable Diffusion系のモデルを使って画像を生成していると、 特定のキャラクターのイラストを出したい あるアニメの絵柄を再現したい といった欲求が出てくることがあります。ただ画像生成AIはそのままだと「特定の絵柄・キャラクターを決め打ちで出す」のは非常に難しいですし、それを解決する手法もありましたが高性能なPCが必要で時間もかかる…という問題がありました。 しかしそのような問題を解決する「LoRA」という手法が知られて、今ではかなりポピュラーなやり方になっています。ここではこのLoRAについて

                                                                            LoRAを使った学習のやり方まとめ!好きな絵柄・キャラクターのイラストを生成しよう【Stable Diffusion】
                                                                          • ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能

                                                                            OpenAIの対話型AI「ChatGPT」は史上最も急速な成長で「月間1億ユーザー」をわずか2カ月で達成するなど、大いに注目を集めています。それに伴い、GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表したり、中国企業が続々とChatGPT風AIを開発していると報道されている一方で、OpenAIはChatGPTのコードを公開していないためChatGPTを効果的に複製することは難しくなっています。AIのディープラーニングトレーニングを最適化するオープンソースプラットフォームのColossal-AIが、ChatGPTトレーニングプロセスをわずか1.6ギガバイトのGPUメモリで7.73倍高速なトレーニングに再現したと告知し、オープンソースで公開しています。 Open-source replication of ChatGPT implementation process!

                                                                              ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能
                                                                            • 【図解】Attentionとは?わかりやすく、そして深く解説|自然言語処理(NLP) - すえつぐのNLP&LLM

                                                                              自然言語処理ライブラリの解説などで度々見かける「Attention」。(Attention機構とも呼ばれます) Attentionは自然言語界のブレイクスルーと言われ、BERTやGPT-3といった最先端技術を理解する上で必須の仕組みです。 このページでは「Attention」についてわかりやすく、そして深く解説していきます。

                                                                              • ディープラーニングのパイオニアGeoffrey Hinton氏、新しいアルゴリズムを発表

                                                                                Spring BootによるAPIバックエンド構築実践ガイド 第2版 何千人もの開発者が、InfoQのミニブック「Practical Guide to Building an API Back End with Spring Boot」から、Spring Bootを使ったREST API構築の基礎を学んだ。この本では、出版時に新しくリリースされたバージョンである Spring Boot 2 を使用している。しかし、Spring Boot3が最近リリースされ、重要な変...

                                                                                  ディープラーニングのパイオニアGeoffrey Hinton氏、新しいアルゴリズムを発表
                                                                                • Google Colab で PEFT による大規模言語モデルのファインチューニングを試す|npaka

                                                                                  「Google Colab」で 「PEFT」による大規模言語モデルのファインチューニングを試したので、まとめました。 1. PEFT「PEFT」(Parameter-Efficient Fine-Tuning)は、モデルの全体のファインチューニングなしに、事前学習済みの言語モデルをさまざまな下流タスクに適応させることができるパッケージです。 大規模言語モデルのファインチューニングは、多くの場合、法外なコストがかかりますが、「PEFT」は少数のパラメータのみをファインチューニングするため、計算コストとストレージ コストが大幅に削減でき、さらには、完全なファインチューニングに匹敵するパフォーマンスを実現します。 現在サポートしている手法は、次の4つです。 ・LoRA ・Prefix Tuning ・P-Tuning ・Prompt Tuning 2. Colabでの実行Google Colab

                                                                                    Google Colab で PEFT による大規模言語モデルのファインチューニングを試す|npaka