並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 170件

新着順 人気順

ディープラーニングの検索結果81 - 120 件 / 170件

  • Apple・Google・Microsoft・Mozillaが協力して開発するベンチマークツール「Speedometer 3.0」が登場

    Apple、Google、Microsoft、Mozillaといったテクノロジー大手が協力して開発するベンチマークツール「Speedometer 3.0」が発表されました。 BrowserBench.org — Announcements https://browserbench.org/announcements/speedometer3/ Improving Performance in Firefox and Across the Web with Speedometer 3 - Mozilla Hacks - the Web developer blog https://hacks.mozilla.org/2024/03/improving-performance-in-firefox-and-across-the-web-with-speedometer-3/ Speedomet

      Apple・Google・Microsoft・Mozillaが協力して開発するベンチマークツール「Speedometer 3.0」が登場
    • 【独自】万博は「残念やけど中止に」大阪府が提供のAI活用チャット大ちゃんが回答(MBSニュース) - Yahoo!ニュース

      大阪府が提供する生成AIを活用したチャットサービスが、万博に関する質問について「残念ながら中止」などと回答する現象が起きていることがわかりました。 大阪府が生成AIを活用して今年9月から提供しているサービス「大ちゃん」。しかし、記者が「大阪の万博は中止ですか?」と質問してみると、「残念やけど中止になってしまいました」と答えます。また、開催時期について聞くと、正しくは「2025年4月から」ですが「2025年3月から」と誤った回答をしていました。 府によりますと、「大ちゃん」は利用者に寄り添い会話を楽しむ目的で作られていて、生成AIはインターネットなどのあらゆる情報を学習するため、正確性に欠ける部分があるということです。こうした情報はSNSでも拡散されていて、府は状況を確認した上で、「修正できる部分があれば修正したい」としています。

        【独自】万博は「残念やけど中止に」大阪府が提供のAI活用チャット大ちゃんが回答(MBSニュース) - Yahoo!ニュース
      • 自己対戦で強化学習する三目並べ AI をPyTorchで実装 - Qiita

        PyTorch の社内勉強会の題材にしたいと思い立ち、畳み込みニューラルネットワーク(Convolutional Neural Network, CNN)を用いた自己対戦型強化学習の三目並べ AI を実装したので公開します。見通しの良いシンプルな実装を目指しました。結局、それなりのコード量になってしまいましたが。 動作環境 Google Colaboratory の CPUランタイムにて動作を確認しました。 概略 おおまかな処理フローは次図の通りです。盤面情報を受け取った先攻方策と後攻方策は、○×を書き込む場所を返します。この先攻方策と後攻方策に AI を実装し自己対戦させます。 盤面情報は、空白マスをゼロ、先攻 ○ を+1、後攻 × を-1とした形状 (H,W)=(3,3) の二次元配列とします。 盤面座標は、場合により二次元座標と1次元に展開したフラット座標を使い分けます。 三目並べの

          自己対戦で強化学習する三目並べ AI をPyTorchで実装 - Qiita
        • 大規模言語モデルを自作しよう!(Transformers+DeepSpeed+torch.compile+flash_attn2)

          本記事は、LLM Advent Calendar 2023 13日目の記事です。 はじめに 🤗 Transformersは、自然言語処理、マルチモーダル、音声処理、コンピュータビジョン分野の事前学習済モデルを簡単にダウンロードしトレーニングすることが可能なpythonライブラリです。このライブラリを使用し、大規模言語モデル(LLM)の事前学習済モデルをローカルPC上にダウンロードし、それを使用した言語生成や、要約・翻訳・質問応答などの個別のタスクへのファインチューニング、チャットAIへの組み込みなどが盛んに行われています。 LLMの事前学習方法に関する情報としては、GPT-NeoXやMegatron-LM、TinyLlama、lit-llamaなど、他のpythonライブラリを使用したものが増えてきています。一方で、Transformersライブラリを使用したLLMの事前学習に関する情報

            大規模言語モデルを自作しよう!(Transformers+DeepSpeed+torch.compile+flash_attn2)
          • Meteor Lakeの内蔵NPU、AI処理の電力効率はCPUの7.8倍

              Meteor Lakeの内蔵NPU、AI処理の電力効率はCPUの7.8倍
            • 深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

              この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 このシリーズが良いと思った方はぜひ共有もよろしくお願いします! 前回(第一回) https://youtu.be/tc8RTtwvd5U?si=15_MXStvqOZqL74O (英語版概要欄より)------------------------------------- さらに学びたい方へ、Michael Nielsenの本 http://neuralnetworksanddeeplearning.com こちらの本ではシリーズで扱われている例のコードを説明していきます: https://github.com/mnielsen/neural-networks-and-deep-learning MNIST d

                深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)
              • 「米国がAI市場も支配する」という構図を阻むフランス新興企業の挑戦 | パリ拠点の「ミストラルAI」がシリコンバレーの巨人に挑む

                昨年の今ごろ、アーサー・メンシュ氏は30歳で、まだ米グーグルの傘下部門に勤めていた。当時は人工知能(AI)がSF以上のものとして人々の意識に定着し始めたころだった。 それ以降、人間のような会話だけでなく推論さえもできる生成AIは、ここ数十年で最も話題となった技術的ブレークスルー(画期的発明)となった。そして、メンシュ氏がグーグル退職後に立ち上げたスタートアップ企業「ミストラルAI」は、設立から9ヵ月で評価額が20億ドル(約3000億円)強に達している。 こうした変化の速さは、高度なAIシステムの構築および商業化に向けた活動を取り巻く熱狂──そして恐怖──を反映している。

                  「米国がAI市場も支配する」という構図を阻むフランス新興企業の挑戦 | パリ拠点の「ミストラルAI」がシリコンバレーの巨人に挑む
                • 拡散モデルとは?Stable Diffusionなど「画像生成AIの学習モデル」をわかりやすく解説

                  画像生成AIの存在はすでに当たり前のものになりつつあります。広告やメディアに掲載されているイラストや写真のほか、私たちが普段使っている検索エンジンやブラウザにも搭載されるようになり、気軽に新しい画像を作れるようになりました。このような画像生成AIの急速な普及の背景にあるのが、画像生成AIの学習モデルに採用された「拡散モデル」の存在です。現在、ほとんどの画像生成AIサービスに採用されている「Stable Diffusion」もこの拡散モデルの1つです。本記事では、拡散モデルとは何か、仕組みや事例についてやさしく解説していきます。 合同会社Noteip代表。ライター。米国の大学でコンピューターサイエンスを専攻し、卒業後は国内の一部上場企業でIT関連製品の企画・マーケティングなどに従事。退職後はライターとして書籍や記事の執筆、WEBコンテンツの制作に関わっている。人工知能の他に科学・IT・軍事・

                    拡散モデルとは?Stable Diffusionなど「画像生成AIの学習モデル」をわかりやすく解説
                  • ⾃⼰教師あり学習によるビジョン基盤モデルの事前学習

                    ロボット工学セミナー:「ロボットのためのLLM・VLM 利活用」 2024年5月23日 ⾃⼰教師あり学習は,ラベルなしデータを⽤いた事前学習法である.⾃⼰教師あり学習では,データから正解ラベルを⾃動で作成できるプレテキストタスクにより事前学習を⾏い,様々な下流タスクに効果的な特徴表現を獲得する.対照学習に基づく⼿法が教師あり事前学習法と同程度以上の学習効果が⽰されて以降,対照学習の派⽣⼿法が数多く提案された.また,Vision Transformer (ViT) の台頭以降は,ViT の構造に合わせた⽅法として Masked Image Modeling が提案され,現在に⾄るまで盛んに研究が⾏われている.本チュートリアルではまず⾃⼰教師あり学習の概要と代表的な評価⽅法について紹介し,対照学習と Masked Image Modeling ⼿法について解説する.

                      ⾃⼰教師あり学習によるビジョン基盤モデルの事前学習
                    • 「言語を一般化する人間のような能力を持つニューラルネットワーク」の登場によりAIに革新が起こる可能性

                      言語における「一般化」を人間のように行えるニューラルネットワークの開発に成功したことが、2023年10月25日に科学誌のNatureに掲載された論文で報告されました。ChatGPTのような人間と自然に対話可能なチャットボットでも、言語の一般化は非常に難しいため、このニューラルネットワークの登場により対話型AIのさらなる進化が見込めると科学誌のNatureが指摘しました。 AI ‘breakthrough’: neural net has human-like ability to generalize language https://www.nature.com/articles/d41586-023-03272-3 Chatbots shouldn’t use emojis https://www.nature.com/articles/d41586-023-00758-y 人間は言語

                        「言語を一般化する人間のような能力を持つニューラルネットワーク」の登場によりAIに革新が起こる可能性
                      • ジェフリー・ヒントンが「AIは考え、理解している」という根拠 | 「AIのゴッドファーザー」による怒りの黙示録

                        ヒントンの教え子が進める「スーパーアラインメント」 われわれはいまいったい何をするのか──それが大きな疑問だ。 2023年10月、ヒントンは前に進む道を提案した。ある公開書簡で、ヒントンと23人の国際的なエキスパートは名だたるAIラボに、それぞれのシステムが確実に安全で倫理的であるようにするため、研究・開発予算の3分の1を充てることを呼びかけた。 彼らは諸政府にも、大規模AIシステムの登記簿を作り、危険な行動を見せるAIの事例報告を企業に義務づけ、内部告発者を法的に保護することなどを勧めた。 AIラボや立法者がこうした勧めを聞き入れるかどうか判断するのは時期尚早だ。だが、現在76歳のヒントンは、その先陣にはこれ以上長くは立たないだろうという事実を受け入れている。世界を救う汚れ仕事は、次世代の肩にかかっているのだ。 人類にとっていちばんの希望となるかもしれないのが、ヒントンの元教え子であるイ

                          ジェフリー・ヒントンが「AIは考え、理解している」という根拠 | 「AIのゴッドファーザー」による怒りの黙示録
                        • RAGの評価:評価の必要性と問題点 - Beatrust techBlog

                          本ブログはこんな人におすすめ RAG (Retrieval Augmented Generation)を使ったアプリケーションを開発しているけど評価に関心のある人 LLM (Large Language Model)やRAGのハルシネーションをどう評価するのかに関心のある人 Ragas (RAGの評価ライブラリ:Retrieval augmented generation assessment)の挙動に興味がある人 こんにちは。私はBeatrustのML周辺のお手伝いをしている鈴木宏和と申します。今回はこれから3つのパートに分けて紹介させていただきますが、LLMの応用として特に注目を集めているRAG (Retrieval Augmented Generation)について、RAGの評価の必要性とアプローチ方法について考察しつつ、RAGに特化した評価ライブラリであるRagasの有用性に関する

                            RAGの評価:評価の必要性と問題点 - Beatrust techBlog
                          • 機械学習の落とし穴 リーク問題について - ABEJA Tech Blog

                            はじめに リークって何? リークの例 テーマ概要 使用できるデータ,手法 例 例1.運用時に使えない情報を使ってしまう 例2.更新された情報を使ってしまう その他例 リークを回避するためには? ドメイン知識をもとにした確認 データを正しく理解する 重要特徴量からの判断 特徴量作成後の可視化 自分がやったことを信用しすぎない まとめ We Are Hiring! はじめに こちらは、ABEJAアドベントカレンダー2023の13日目の記事です。 こんにちは!ABEJAでデータサイエンティストをしております松村です。2021年の入社時から地元広島からフルリモートで働いており、早いものでもうすぐ3年が経過します。 今回は、データサイエンティスト誰もが一度は直面するリーク問題について考えてみました! リークって何? 「機械学習におけるリークとは何か?」について一言で言うと、本来使うことのできない情報

                              機械学習の落とし穴 リーク問題について - ABEJA Tech Blog
                            • プリファードネットワークス、AI半導体でNVIDIA追う 省エネに勝機 - 日本経済新聞

                              「実装段階ではサーバーはどんな仕組みになるのか」「価格はどのくらいか」──。2月下旬、人工知能(AI)開発を手掛けるプリファードネットワークス(PFN、東京・千代田)が開いた、AIのディープラーニング(深層学習)向け独自半導体チップ「MN-Core」についての勉強会の一幕。通信会社やデータセンター関連企業の社員らから熱心な質問が飛んだ。日の丸半導体復活への期待が高まる中、日本で有望なスタートア

                                プリファードネットワークス、AI半導体でNVIDIA追う 省エネに勝機 - 日本経済新聞
                              • The first AI model based on Yann LeCun’s vision for more human-like AI

                                Our work on I-JEPA (and Joint Embedding Predictive Architecture (JEPA) models more generally) is grounded in the fact that humans learn an enormous amount of background knowledge about the world just by passively observing it. It has been hypothesized that this common sense information is key to enable intelligent behavior such as sample-efficient acquisition of new concepts, grounding, and planni

                                  The first AI model based on Yann LeCun’s vision for more human-like AI
                                • A Comprehensive Survey on Applications of Transformers for Deep Learning Tasks

                                  Transformer is a deep neural network that employs a self-attention mechanism to comprehend the contextual relationships within sequential data. Unlike conventional neural networks or updated versions of Recurrent Neural Networks (RNNs) such as Long Short-Term Memory (LSTM), transformer models excel in handling long dependencies between input sequence elements and enable parallel processing. As a r

                                  • Microsoft、AI最適化チップ「Azure Maia 100」と汎用Armチップ「Azure Cobalt」

                                    Microsoft、AI最適化チップ「Azure Maia 100」と汎用Armチップ「Azure Cobalt」:Microsoft Ignite Microsoftは2つのカスタム設計チップ、AIに最適化した「Maia 100」とArumベースの汎用「Cobalt 100」を発表した。「インフラストラクチャスタックのすべての層を最適化して統合することが重要」とガスリー氏。 米Microsoftは11月15日(現地時間)、開発者向け年次イベント「Microsoft Ignite」で、2つのカスタム設計チップ、AIに最適化した「Microsoft Azure Maia 100 AI Accelerator」(以下「Maia 100」)とArmベースの汎用「Microsoft Azure Cobalt 100 CPU」(以下「Cobalt 100」)を発表した。 Microsoftは現在、A

                                      Microsoft、AI最適化チップ「Azure Maia 100」と汎用Armチップ「Azure Cobalt」
                                    • 【Mamba入門】Transformerを凌駕しうるアーキテクチャを解説(独自の学習・推論コード含む) - Qiita

                                      はじめに 薄紅色の柔らかなそよ風が恋しい今日この頃皆様いかがお過ごしでしょうか? はじめまして。 某総合電機メーカ・某設計部門(機械設計)に属する 六花 牡丹(りっか ぼたん)と申します。 とある事情でこちらのサイトに不定期で記事を載せることがございます。 本記事ではMambaに関するアルゴリズム・数学的な原理に加え、独自に開発した学習・推論コードを示すことで基礎から応用までをカバーしています。 拙筆ではございますが、皆様のお役に立つことを心から願っております。 未熟者故、記事中にて誤記・欠落などが見られることがございます。 もし発見しました場合には、コメント等にてご指摘いただきますようお願い申し上げます。 私は記事を一般に周知する手段を有していないため、もし記事が有用であると判断された場合には、X(旧Twitter)等で拡散していただけますと幸いです。 2024/02/13 追記: X(

                                        【Mamba入門】Transformerを凌駕しうるアーキテクチャを解説(独自の学習・推論コード含む) - Qiita
                                      • NVIDIA、生成AIモデルをPCやワークステーションで構築するための「AI Workbench」を近日リリース

                                        米NVIDIAは8月8日(現地時間)、生成AIモデル構築のための新たな統合ツールキット「AI Workbench」を発表した。生成AIモデルをPCやワークステーション上で構築、テスト、カスタマイズできるように設計されている。必要であればそれをデータセンターやクラウドに拡張可能だ。 現在、多数の事前トレーニング済みモデルが利用可能になっているが、それを複数のオンラインリポジトリを横断して探し回り、適切なフレームワークやツールを探すのが大きな負担になっているとNVIDIAは説明する。 AI Workbenchはローカルシステム上で実行できる簡素化されたツールを介してモデルにアクセスできるため、こうした負担を軽減できるとしている。 開発者は、Hugging Face、GitHub、NVIDIA NGCなどの一般的なリポジトリのモデルをカスタマイズでき、モデルは複数のプラットフォーム間で共有できる

                                          NVIDIA、生成AIモデルをPCやワークステーションで構築するための「AI Workbench」を近日リリース
                                        • 生成 AI に必要な「基盤モデル」のメモリ使用量 98%削減につながる技術を開発 ─ 自動運転車や工作用ロボット用組み込みシステムへの搭載を目指す ─

                                          • 今こそはじめるJAX/Flax入門 Part 1

                                            1. はじめに 2012年から始まった深層学習の発展の過程で、さまざまな学習フレームワークが登場しました。中でもPyTorchとTensorflowは最も広く使われており、それぞれのフレームワークが支持されている背景には、柔軟性、拡張性、そして使いやすさがあります。 一方で、これらのフレームワークはその機能を拡張し続けてきた結果として、全体として非常に巨大で複雑なライブラリになっています。そのため、独自に機能拡張を行いたいユーザーにとっては扱いづらく、性能的にもオーバーヘッドを感じさせることがあります。 そこで新たに出てきたのが「JAX」とその関連ライブラリの組み合わせになります。2019年に登場して以降、特に海外の開発者に支持されてきました。近年注目されている大規模言語モデル(LLM)の分野においても、JAXによるモデルが公開されていることは珍しくなくなりつつあります。 PyTorch(

                                              今こそはじめるJAX/Flax入門 Part 1
                                            • 大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場

                                              Low Rank Adapation(LoRA)はAIへの追加学習を少ない計算量で行うためのモデルです。このLoRAを使って、事前トレーニングされた大規模言語モデルに低コストかつ効率的にファインチューニング(微調整)を行えるシステム「Punica」を、ワシントン大学とデューク大学の研究チームが公開しました。 GitHub - punica-ai/punica: Serving multiple LoRA finetuned LLM as one https://github.com/punica-ai/punica [2310.18547] Punica: Multi-Tenant LoRA Serving https://arxiv.org/abs/2310.18547 企業や開発者が特定のタスクに適した大規模言語モデルを用意したい場合、事前学習済みの大規模言語モデルをファインチューニン

                                                大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場
                                              • tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!

                                                tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!:TensorFlow 2+Keras(tf.keras)入門 TensorFlow+Kerasの最新情報として、Keras 3.0のリリースに伴い、TensorFlowから独立し、TensorFlow 2.16以降でKeras 3がデフォルトとなったことについて紹介します。また、Keras 3(TensorFlowバックエンド)での書き方や、今後のディープラーニングライブラリの選び方についても私見を示します。 連載目次 もう4年も前になりますが、2020年5月に「マルチバックエンドKerasの終焉(しゅうえん)、tf.kerasに一本化」という記事を書きました。しかしその後、逆の動きが起きています。本稿では、前回の記事をフォローアップする目的も兼ねて、最新の状況をお伝えします。 そもそもKer

                                                  tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!
                                                • GitHub - KindXiaoming/pykan: Kolmogorov Arnold Networks

                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                    GitHub - KindXiaoming/pykan: Kolmogorov Arnold Networks
                                                  • ドスパラがGPUクラウドサービス提供 生成AIなどで利用見込む

                                                    PC販売などを手掛けるサードウェーブは11月1日、法人向けブランド「ドスパラプラス」で、GPUクラウドサービス「raytrek cloud」を始めた。 PC販売などを手掛けるサードウェーブは11月1日、法人向けブランド「ドスパラプラス」で、GPUクラウドサービス「raytrek cloud」を始めた。データセンター事業などを手掛けるハイレゾ(東京都新宿区)のGPUクラウドサービス「GPUSOROBAN」を代理販売する形で提供。当初はGPUSOROBANと同じサービス内容だが、今後サードウェーブ独自の施策などを検討する。

                                                      ドスパラがGPUクラウドサービス提供 生成AIなどで利用見込む
                                                    • Poetry1.5.1からGPU版のPytorchのインストールが簡単になりました

                                                      結論 GPU版PytorchのようなPyPIに存在しないパッケージにおいて、Poetry1.5.1からインストールがより簡単になりました🎉 例えば自分の環境では下記の2行でインストールできます。 poetry source add torch_cu118 --priority=explicit https://download.pytorch.org/whl/cu118 poetry add torch torchvision torchaudio --source torch_cu118

                                                        Poetry1.5.1からGPU版のPytorchのインストールが簡単になりました
                                                      • 「ディープラーニングにおける速度限界」の論文を読む

                                                        Speed Limits for Deep Learning という論文でニューラルネットの学習過程における熱力学的速度限界の研究がされています。 先を越されてしまった感があるので紹介します。本文10ページくらいで解析式とテストデータでの興味深い結果が書かれています。 熱力学的速度限界とは非平衡な物理系において分布の変化の大きさL、エントロピー生成\sigmaに対して変化に要した時間\tauが \tau \geq \frac{L^2}{2\Lambda \sigma} というような形で制限される法則です。 詳しくは ここでは機械学習の過程でパラメーター\theta_tが時間tに対して d\theta_t=\eta\nabla_\theta V(\theta;D)dt+\sqrt{1\eta\beta^{-1}}dB_t (Dは学習データ\etaは学習率)と変化するような状況を考え、 論文で

                                                          「ディープラーニングにおける速度限界」の論文を読む
                                                        • KAN: Kolmogorov-Arnold Networks

                                                          Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes ("neurons"), KANs have learnable activation functions on edges ("weights"). KANs have no linear weights at all -- every weight parameter is replaced by a univariate function parametriz

                                                          • コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に

                                                            Googleのクラウドコンピューティングサービス「Google Cloud」において、機械学習特化型プロセッサ「TPU v5e」を用いた処理が可能になりました。GoogleはTPU v5eについて前世代の「TPU v4」と比較してコストパフォーマンスが2.3倍に向上しているとアピールしています。 Cloud TPU v5e is generally available | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-in-ga/?hl=en TPU v5eはGoogleが独自に開発している機械学習特化プロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルで、発表時には前世代モデルのTPU v4と比較して1ドル当たりのパフォーマ

                                                              コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に
                                                            • Code LoRA from Scratch - a Lightning Studio by sebastian

                                                              LoRA (Low-Rank Adaptation) is a popular technique to finetune LLMs more efficiently. This Studio explains how LoRA works by coding it from scratch, which is an excellent exercise for looking under the hood of an algorithm.

                                                                Code LoRA from Scratch - a Lightning Studio by sebastian
                                                              • AWS、AIモデルのトレーニングと実行向け新チップ「Graviton4」と「Trainium2」を発表

                                                                AWS、AIモデルのトレーニングと実行向け新チップ「Graviton4」と「Trainium2」を発表:AWS re:Invent 2023 Amazon傘下のAWSは、MLトレーニングや生成AIアプリを含む広範な顧客のワークロード向けの次世代チップ、「Graviton4」と「Trainium2」を発表した。いずれも先代より大幅に性能が向上したとしている。 米Amazon傘下のAWSは11月28日(現地時間)、ラスベガスで開催の年次イベント「AWS re:Invent 2023」の基調講演で、2つの次世代チップ「AWS Graviton4」と「AWS Trainium2」を発表した。MLトレーニングや生成AIアプリを含む広範な顧客のワークロードで、価格性能とエネルギー効率の向上を目指すとしている。

                                                                  AWS、AIモデルのトレーニングと実行向け新チップ「Graviton4」と「Trainium2」を発表
                                                                • 自社のデータで生成AIを強化すべし:ファインチューニングしてビジネスに活用させたい基盤モデル(その1) | NTTデータ先端技術株式会社

                                                                  最近、クラウドサービスプロバイダ各社が言語系の基盤モデルとそのファインチューニング機能を提供し始めました。企業が生成AIをビジネスに本格的に活用させたいと思うならば、自社がもつデータセットで基盤モデルをファインチューニングする必要があるからです。 AIは、他の技術が成長する上で不可欠な基盤的な技術であり、ビジネスや社会の進化を後押ししています。最近、世間を賑わせているAIと言えば、生成AIでしょう。その中でもここ数ヶ月、メディアで数多く取り上げられて一躍注目を浴び、ビジネス現場を賑わせ続けているのが、OpenAIが開発したChatGPTです。ChatGPTは、GPT-3.5 Turboという大規模言語モデルを用いたAIチャットサービスです。(ただし、ChatGPTを大規模言語モデルと呼ぶ場合もあります。)GPT-3.5 Turboは、GPT-3.5という基盤モデルを人間のような自然な会話が

                                                                    自社のデータで生成AIを強化すべし:ファインチューニングしてビジネスに活用させたい基盤モデル(その1) | NTTデータ先端技術株式会社
                                                                  • 新たに「Llama 2 70B」と「Stable Diffusion XL」が追加されたAIベンチマークテスト「MLPerf Inference v4.0」の結果が発表される

                                                                    ニューラルネットワークのパフォーマンス評価を実施する業界コンソーシアムのMLCommonsは、さまざまなシナリオでハードウェアのAI処理性能を測定できるベンチマークテスト「MLPerf Inference」を設計しています。最新の「MLPerf Inference v4.0」では、パフォーマンス指標として新たにMetaの大規模言語モデル「Llama 2 70B」と画像生成AIの「Stable Diffusion XL」が追加されました。 New MLPerf Inference Benchmark Results Highlight The Rapid Growth of Generative AI Models - MLCommons https://mlcommons.org/2024/03/mlperf-inference-v4/ Nvidia Tops Llama 2, Stabl

                                                                      新たに「Llama 2 70B」と「Stable Diffusion XL」が追加されたAIベンチマークテスト「MLPerf Inference v4.0」の結果が発表される
                                                                    • NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に | テクノエッジ TechnoEdge

                                                                      米ロサンジェルスで開催中のコンピュータグラフィックス国際会議SIGGRAPH 2023で8月8日、NVIDIAのジェンスン・ファンCEOが基調講演を行いました。新しいGPUアーキテクチャの発表こそなかったものの、いくつかの重要なアナウンスがありました。 その一つが、Hugging Faceとの提携。 Hugging Faceといえば、画像生成AIから大規模言語モデル(LLM)まで、さまざまなAIモデルのリポジトリとして使われている、生成AIに関わっている人なら必ずお世話になっているサービスです。 NVIDIAはこの発表を、「NVIDIAとHuggung Faceはパートナーシップを結び、生成AIスーパーコンピューティングを数百万もの開発者に提供し、LLMをはじめとする先進のAIアプリケーション開発に資する」と説明しています。 具体的には、NVIDIAのクラウドAIスーパーコンピューティング

                                                                        NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に | テクノエッジ TechnoEdge
                                                                      • [速報]AWS、大規模言語モデルのトレーニングに最適化した独自プロセッサ「AWS Trainium2」発表。前モデルより最大4倍のトレーニング性能。AWS re:Invent 2023

                                                                        Amazon Web Services(AWS)は、ラスベガスで開催中のイベント「AWS re:Invent 2023」の基調講演で、AIのトレーニングに最適化した独自プロセッサ「AWS Trainium2」を発表しました。 Trainium2は、最大数兆個のパラメータを持つ基盤モデルおよび大規模言語モデルのトレーニング用に設計されています。 2020年に発表された第一世代のTrainiumチップと比較して、最大4倍のトレーニング性能と3倍のメモリ容量を実現し、エネルギー効率(性能/ワット)を最大2倍まで改善するように設計されています。 Trainium2は、単一のインスタンスに16個のTrainiumチップを含むAmazon EC2 Trn2インスタンスで利用可能になります。 Trn2インスタンスは、AWS Elastic Fabric Adapter(EFA)のペタビットスケールネット

                                                                          [速報]AWS、大規模言語モデルのトレーニングに最適化した独自プロセッサ「AWS Trainium2」発表。前モデルより最大4倍のトレーニング性能。AWS re:Invent 2023
                                                                        • AI研究者、東大教授・松尾豊が語る「生成AI」が教育業界に与えるインパクト | 東洋経済education×ICT

                                                                          「先生が教えやすくなる」など、多様なツールの可能性 ――現在、第3次AIブームといわれていますが、話題のChatGPTはこれまでのAIと何が違うのでしょうか。 今回の第3次AIブームの源泉はディープラーニングです。顔認証や画像診断といった画像認識を中心に世の中に活用が広がりましたが、ChatGPTは言語を扱う技術ということで、今まで以上に影響範囲が広いといえます。 インターネットをはじめスマートフォンや自動車など、これまでの歴史で見てきたように、新しい技術が生まれてから使えるサービスとして一般に行き渡るまでには、相応の時間がかかるでしょう。しかし、確実に生成AIは世の中に浸透していくと考えています。 ――文部科学省が2023年7月4日に「初等中等教育段階における生成 AI の利用に関する暫定的なガイドライン」を公表しましたが、活用に抵抗感を持つ教員もいそうです。 最初は抵抗感を持つ人がいる

                                                                            AI研究者、東大教授・松尾豊が語る「生成AI」が教育業界に与えるインパクト | 東洋経済education×ICT
                                                                          • 機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 | DevelopersIO

                                                                            機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 1 はじめに CX 事業本部 delivery部の平内(SIN)です。 Meta社による Segment Anything Model(以下、SAM)は、セグメンテーションのための汎用モデルで、ファインチューニングなしで、あらゆる物体がセグメンテーションできます。 今回は、こちらを使用して、スーパーマーケットで冷蔵庫の缶ビールを検出してみました。 最初に、動作確認している様子です。 缶ビールがセグメンテーションされていることと、それぞれの銘柄が判定できていることを確認できると思います。 2 学習済みモデルによる物体検出 (YOLOv8) YOLOv8などの物体検出モデルでは、配布されている学習済みモデルで、ある程度の物体検出が可能です

                                                                              機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 | DevelopersIO
                                                                            • EDLA

                                                                              誤差拡散学習法のサンプルプログラム 99/7/12 公開 99/7/16 詳細追加 99/8/6 一部修正 99/8/19 論文追加 99/10/27 経過報告 ED法サンプルプログラム(UNIX汎用、tgz、4KB) 階層型神経回路網(ニューラルネットワーク)の教師あり学習アルゴリズムである誤差拡散学習法(ED法)のサンプルプログラムです。 比較のために用いたバックプロパゲーション法(BP法)のサンプルプログラムも示しておきます。 慣性項ありBP法のサンプルプログラム(UNIX汎用、tgz、4KB) なお、これらのプログラムでは、階層型構造をリカレント型の一種とみなして計算しています。また、パラメータ入力の際には、単にリターンを押すとデフォルト値(括弧の中の値)が用いられるようになっていますので、実行の際にはリターンを連打すればOKです。また、X-Windowを用いてトータルエラーのグラ

                                                                              • NVIDIAの「CUDA」とIntelのGPUをつなぐソフトウェア「ZLUDA」がAMD向けとして転身復活するも今後の開発は絶望的

                                                                                NVIDIAのコンピューティング向けGPU活用技術「CUDA」をIntel GPUで実行できるようにしたソフトウェア「ZLUDA」が復活しましたが、IntelではなくAMDのGPUで動作するよう改変が加えられていました。 AMD Quietly Funded A Drop-In CUDA Implementation Built On ROCm: It's Now Open-Source - Phoronix https://www.phoronix.com/review/radeon-cuda-zluda Software allows CUDA code to run on AMD and Intel GPUs without changes — ZLUDA is back but both companies ditched it, nixing future updates | T

                                                                                  NVIDIAの「CUDA」とIntelのGPUをつなぐソフトウェア「ZLUDA」がAMD向けとして転身復活するも今後の開発は絶望的
                                                                                • マルチモーダルLLMの応用動向の論文調査

                                                                                  社内のテックトークで紹介しました。 論文内で議論しているマルチモーダルLLMの活用方法や課題などを紹介しています。 詳しいアルゴリズムの話はしていません。

                                                                                    マルチモーダルLLMの応用動向の論文調査