並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 858件

新着順 人気順

nvidiaの検索結果1 - 40 件 / 858件

  • NVIDIA主導で日本が「ソブリンAI」先進国に、AI立国に必須とNVIDIAが提唱するソブリンAIとは一体何なのか?

    NVIDIAが2024年5月15日に、経済産業省の助成や国内の主要クラウド企業との協力により、日本の生成AIインフラの構築を推進し、自国のデータを自国のAIで活用する「ソブリンAI」の基盤作りを強化していくこと発表しました。 NVIDIA to Help Elevate Japan’s Sovereign AI Efforts Through Generative AI Infrastructure Build-Out | NVIDIA Blog https://blogs.nvidia.com/blog/japan-sovereign-ai/ NVIDIA、生成AIインフラ構築をとおして日本のソブリンAIの取り組みを支援 | NVIDIAのプレスリリース https://prtimes.jp/main/html/rd/p/000000466.000012662.html NVIDIAは今

      NVIDIA主導で日本が「ソブリンAI」先進国に、AI立国に必須とNVIDIAが提唱するソブリンAIとは一体何なのか?
    • ロボットのトレーニングを大規模言語モデルで加速する技術「DrEureka」をNVIDIAなどの研究チームが開発

      ロボットに新しいスキルを習得させる場合、まずシミュレーション環境でトレーニングを行い、それから現実環境に展開するのが一般的ですが、その際にシミュレーション環境と現実環境のギャップが課題になります。このギャップを埋める作業を大規模言語モデルで自動化する技術「DrEureka」を、NVIDIAやペンシルベニア大学、テキサス大学オースティン校などの研究チームが開発しました。 DrEureka | Language Model Guided Sim-To-Real Transfer https://eureka-research.github.io/dr-eureka/ Nvidia’s DrEureka outperforms humans in training robotics systems | VentureBeat https://venturebeat.com/automation/

        ロボットのトレーニングを大規模言語モデルで加速する技術「DrEureka」をNVIDIAなどの研究チームが開発
      • NVIDIAのGPU不足は今後も続く ボトルネックはHBMとTSMCの中工程か

        2022年11月にOpen AIがChatGPTを公開して以降、生成AI(人工知能)が爆発的に世界に普及している。その生成AIは、NVIDIAのGPUなどのAI半導体を搭載したAIサーバ上で動作する。 しかし、昨年2023年12月14日に行われた台湾の調査会社TrendForceの予測によれば、AIサーバの出荷台数は思ったほど伸びない。AIサーバが、全てのサーバの出荷台数に占める割合は、2022年に6%、2023年に9%、2024年に13%、2025年に14%、2026年に16%にとどまる予測となっている(図1)。 図1 サーバの出荷台数、AIサーバの割合および、AIチップ用ウエハーの割合[クリックで拡大] 出所:Joanna Chiao(TrendForce)、「TSMCの世界戦略と2024年半導体ファウンドリ市場の展望」(TreendForce産業フォーカス情報、2023年12月14日

          NVIDIAのGPU不足は今後も続く ボトルネックはHBMとTSMCの中工程か
        • NVIDIAのローカルAI「ChatRTX」、AIモデル追加で画像認識や音声入力が可能に/

            NVIDIAのローカルAI「ChatRTX」、AIモデル追加で画像認識や音声入力が可能に/
          • GeForce RTX搭載PCで動くローカルAI「ChatRTX」刷新。画像認識や音声入力に対応

              GeForce RTX搭載PCで動くローカルAI「ChatRTX」刷新。画像認識や音声入力に対応
            • 【西川和久の不定期コラム】 自前でStable Diffusion用美女モデル作成の後日談。そしてVRAM 80GBのA100も使ってみた!

                【西川和久の不定期コラム】 自前でStable Diffusion用美女モデル作成の後日談。そしてVRAM 80GBのA100も使ってみた!
              • 中国がアメリカに禁じられたはずのNVIDIA製AIチップをDell・Gigabyte・Supermicro製サーバーから取得していたことが明らかに

                中国が高性能チップをAI搭載兵器やサイバー攻撃ツールなどに軍事転用することへの懸念から、アメリカ政府はNVIDIAなどの半導体メーカーに対し、中国への高性能チップ輸出を規制しています。しかし、中国国内の一部の研究機関や大学では、NVIDIA製チップが搭載されたDellやGigabyte、Supermicro製のサーバーを再販業者から仕入れることでこの規制を回避していることが指摘されています。 China acquired recently banned Nvidia chips in Super Micro, Dell servers, tenders show | Reuters https://www.reuters.com/world/china/china-acquired-recently-banned-nvidia-chips-super-micro-dell-servers-

                  中国がアメリカに禁じられたはずのNVIDIA製AIチップをDell・Gigabyte・Supermicro製サーバーから取得していたことが明らかに
                • NVIDIAがGPUリソース管理ツールの開発企業「Run:ai」を買収

                  NVIDIAが2024年4月24日に、AIハードウェアの最適化と管理を行うツールを手がけるイスラエルのスタートアップ・Run:aiを買収したことを発表しました。 NVIDIA to Acquire GPU Orchestration Software Provider Run:ai | NVIDIA Blog https://blogs.nvidia.com/blog/runai/ Nvidia acquires AI workload management startup Run:ai for $700M, sources say | TechCrunch https://techcrunch.com/2024/04/24/nvidia-acquires-ai-workload-management-startup-runai/ テルアビブを拠点とするRun:aiは、AIインフラストラク

                    NVIDIAがGPUリソース管理ツールの開発企業「Run:ai」を買収
                  • NVIDIA H200搭載サーバー初号機をフアンCEOがOpenAIに直接お届け

                      NVIDIA H200搭載サーバー初号機をフアンCEOがOpenAIに直接お届け
                    • NVIDIAと日本の産業技術総合研究所が提携して構築を進める量子スーパーコンピューター「ABCI-Q」とは?

                      日本の産業技術総合研究所(AIST)は量子コンピューティング機能を提供するハイブリッドスーパーコンピューターを構築するプロジェクト「ABCI-Q」をNVIDIAと提携して進めています。ABCI-Qは早ければ2025年度から利用可能で、医薬品研究や物流の最適化などのアプリケーション開発が想定されています。 Nvidia to help Japan build hybrid quantum-supercomputer - Nikkei Asia https://asia.nikkei.com/Business/Technology/Nvidia-to-help-Japan-build-hybrid-quantum-supercomputer NVIDIA To Collaborate With Japan On Their Cutting-Edge ABCI-Q Quantum Superco

                        NVIDIAと日本の産業技術総合研究所が提携して構築を進める量子スーパーコンピューター「ABCI-Q」とは?
                      • 産総研、NVIDIAと量子計算システム 有償で民間に - 日本経済新聞

                        経済産業省所管の研究機関である産業技術総合研究所は、米エヌビディアと協力して量子計算ができるシステムをつくる。2025年度以降に企業や研究者が有償で使えるようにする。量子計算は高速で複雑な計算処理が可能で、創薬研究や物流の効率改善につなげる。産総研がスーパーコンピューターと量子コンピューターをつなげた計算基盤「ABCI-Q」の運用を始める。量子コンピューターは単独では計算ミスが多い課題がある。

                          産総研、NVIDIAと量子計算システム 有償で民間に - 日本経済新聞
                        • さくらインターネット、AI半導体1万個調達へ 従来計画の5倍 - 日本経済新聞

                          さくらインターネットは19日、米エヌビディアなどから画像処理半導体(GPU)8000個を追加調達すると発表した。人工知能(AI)の開発に使うスーパーコンピューターの整備に向け、GPUを組み込んだ高性能サーバーを増やす。従来計画と合わせて2027年末までに合計1万個のGPUを購入する。さくらネットは23年以降、エヌビディアなどから2000個のGPUの調達を進めている。エヌビディア製のGPUの調達

                            さくらインターネット、AI半導体1万個調達へ 従来計画の5倍 - 日本経済新聞
                          • 生成AI処理などを高速化したプロ向けエントリーGPU「NVIDIA RTX A400/A1000」

                              生成AI処理などを高速化したプロ向けエントリーGPU「NVIDIA RTX A400/A1000」
                            • NVIDIAがRTX 3050と同じGPU搭載のRTX A1000とA400を発表。ロープロファイル・シングルスロットで最強GPUに?

                              NVIDIAがRTX 3050と同じGPUを搭載するRTX A1000とRTX A400を発表。ロープロファイルかつシングルスロットで最強GPUに? NVIDIAではロープロファイルGPUとしてGeForce RTX 4060やその前にはRTX A2000などが発売され、これらのグラフィックカードがロープロファイル規格を満たすグラフィックカードとして非常に高い性能を持っていました。 しかし、これらグラフィックカードはロープロファイルではあるものの、2スロットで小型かつ薄型デスクトップには入らないケースもありましたが、NVIDIAではAmpere GPUを搭載したロープロファイルかつシングルスロットのRTX A1000とRTX A400の2モデルを発表しました。 NVIDIA RTX A1000およびRTX A400はRTXシリーズとしてリリースされているため、ゲーミング向け製品ではありませ

                                NVIDIAがRTX 3050と同じGPU搭載のRTX A1000とA400を発表。ロープロファイル・シングルスロットで最強GPUに?
                              • 台湾TSMCが最高益、1〜3月8.9%増 生成AI向け好調 - 日本経済新聞

                                【台北=龍元秀明】世界最大の半導体受託生産会社(ファウンドリー)である台湾積体電路製造(TSMC)が18日発表した2024年1〜3月期決算は、純利益が前年同期比8.9%増の2254億台湾ドル(約1兆円)、売上高は16.5%増の5926億台湾ドルだった。いずれも同期としての過去最高を更新した。生成AI(人工知能)向けなど先端半導体の受託生産が好調だった。半導体市況が低迷した23年12月期は前の期

                                  台湾TSMCが最高益、1〜3月8.9%増 生成AI向け好調 - 日本経済新聞
                                • フレームレートを計測する「NVIDIA FrameView」で3Dゲームの適切な画質設定を見つける【石田賀津男の『酒の肴にPCゲーム』】

                                    フレームレートを計測する「NVIDIA FrameView」で3Dゲームの適切な画質設定を見つける【石田賀津男の『酒の肴にPCゲーム』】
                                  • Colaboratory on X: "Colab now has NVIDIA L4 runtimes for our paid users! 🚀 24GB of VRAM! It's a great GPU when you want a step up from a T4. Try it out by selecting the L4 runtime! https://t.co/3DDp9gxG8D"

                                    • AI時代に起業するということ|shi3z

                                      生成AI以前と以後で、会社のあり方は決定的に変化していくのだと思う。 たとえば、昨日はとある会議で、「この(AI)サービスの原価はいくらか」という議論が沸き起こった。 AIサービスなのだから、AIの利用料くらいしかかからないかというとそうでもない。実際、AIを動かすためにはAIそのものにかかるお金以外の人件費がかかる。誰かに売る人の人件費や、システム開発のための人件費や、サポートのための人件費だ。ただ、AIサービスの場合、人件費を極限まで最小化することができる、という点が決定的に違う。 また「AIの利用料」も、「APIの利用料」なのか、ベアメタルサーバーの月額利用料なのか、それとも自社に持っているGPUマシンの電気代なのか、という議論のポイントがある。 あまり多くの人は語らないことだが、実は起業には再現性がある。 つまり、一度でも事業をうまく立ち上げたことがある経験を持つ人は、次も事業をう

                                        AI時代に起業するということ|shi3z
                                      • 株価爆上げ「さくらインターネット」が描く勝ち筋

                                        コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕

                                          株価爆上げ「さくらインターネット」が描く勝ち筋
                                        • エヌビディアに続くAI勝ち組を探せ-ウォール街が新興国市場に照準

                                          世界有数の資産運用会社が、人工知能(AI)の次の勝ち組を米国外に探そうとしている。 AIに対する世界的な熱狂を背景に米半導体大手エヌビディアの株価は1年足らずで3倍になり、半導体企業を対象とする米国の主要指数であるフィラデルフィア半導体株指数は50%上昇。そうした中、投資家はより良いバリューとより多くの選択肢を求めて新興国市場に注目している。 米ゴールドマン・サックス・グループの資産運用部門は、特に冷却システムや電源といったAIサプライチェーンの構成要素を製造する企業への投資を模索していると説明。JPモルガン・アセット・マネジメントは、従来の電子機器メーカーの中でAIのリーダーへと変貌しつつある企業を選好。またモルガン・スタンレーでは、非テクノロジー分野の事業モデルをAIで再構築している企業に賭けている。

                                            エヌビディアに続くAI勝ち組を探せ-ウォール街が新興国市場に照準
                                          • NVIDIAグラフィックスドライバーで必要なものだけダウンロードしてインストールできるフリーソフト「NVCleanstall」レビュー、オフラインで使えるカスタムインストーラーも作成可能

                                            NVIDIA製グラフィックボードのドライバーをインストールすると、GeForce Experienceや物理演算エンジンなどのコンポーネントもインストールされます。しかし、ドライバー本体以外のコンポーネントは人によっては不要なもので、無駄にストレージを圧迫したりシステムに負荷をかけたりする煩わしい存在になりがちです。フリーソフトの「NVCleanstall」を使えば、あらかじめインストールしたいコンポーネントだけを選択した状態でドライバーのインストールが可能とのこと。めちゃくちゃ便利そうなので、実際にNVCleanstallを使ってドライバーをインストールする手順をまとめてみました。 NVCleanstall - NVIDIA Driver Customizer https://www.techpowerup.com/nvcleanstall/ ・目次 ◆1:NVIDIA製ドライバーの問題

                                              NVIDIAグラフィックスドライバーで必要なものだけダウンロードしてインストールできるフリーソフト「NVCleanstall」レビュー、オフラインで使えるカスタムインストーラーも作成可能
                                            • 第三のプロセッサ「DPU」とは? CPU、GPUとの違い

                                              最も広く使われているプロセッサは、コンピュータ全体の制御をつかさどる「CPU」(中央処理装置)だ。ただし普及したプロセッサはCPUだけではない。「GPU」(グラフィックス処理装置)や「DPU」(データ処理装置)といった新しいプロセッサが使用を広げているのだ。 複数のプロセッサコア(演算装置)を搭載したCPUを使えば、あらゆるタスクを処理することはできる。それでもGPUやDPUといった他のプロセッサを併用することには意味があるという。それはどういうことなのか。CPU、GPU、DPUそれぞれの特徴や役割は何か。本資料で、これら3つのプロセッサの基本を理解しよう。

                                                第三のプロセッサ「DPU」とは? CPU、GPUとの違い
                                              • 【月間総括】驚くほど世間の関心を集める任天堂,故・岩田氏の慧眼を偲ぶ

                                                今月は任天堂について述べたい。 だがその前に,前回の記事を執筆したあとに発表されたSony Interactive Entertainmentの構造改革に触れておく。すでにBungieのレイオフが実施済みだったので,さらに人員削減が行われたことに驚いた人も多いだろう。2024年に入ってAAAやライブサービスに積極的に資本を投下していた米系メーカーがレイオフを積極化している。膨れ上がった開発費を回収することが,PS5の予想外の不振で難しくなっているからだ。 東洋証券では,Z世代が購買力を持つ結果,嗜好が変わり(行動変容),ゲーム販売がアニメ指向になるので,意味のない規制はやめ,ハードもゲーム機らしくしアニメの本場ともいえる日本市場の本格対応を進めるべきだと提案をしてきた。しかしSIEからは悲しい気持ちにしかならないから批判をしないでほしいという意見表明を返されてしまった。その結果が,8%,9

                                                  【月間総括】驚くほど世間の関心を集める任天堂,故・岩田氏の慧眼を偲ぶ
                                                • M3 Technologies

                                                  エムスリーテクノロジーズは、 医療業界で圧倒的成長を続ける エムスリーグループ全体を更に加速するために創設されました。

                                                    M3 Technologies
                                                  • グループ会社支援を目的とした開発支援専門会社|エムスリーテクノロジーズ株式会社を設立

                                                    エムスリー株式会社(所在地:東京都港区、代表取締役:谷村 格、以下エムスリー)は、グループ会社の開発支援を行うエムスリーテクノロジーズ株式会社(代表取締役:山崎 聡(エムスリー取締役CTO / VPoP)、以下エムスリーテクノロジーズ)を2024年4月1日に設立します。 エムスリーは「インターネットを活用し、健康で楽しく長生きする人を1人でも増やし、不必要な医療コストを1円でも減らすこと」をミッションに掲げ、様々な事業を展開しています。国内では2009年頃より積極的にM&Aを実施しており、2023年3月時点で、132社のグループ会社を有しています。エムスリー本体以外の売上が連結売上に占める割合も、2023年3月時点で76%にのぼり、エムスリーグループの企業価値向上に寄与する大きなアセットとなっています。 これまでもエムスリーではエンジニアリンググループに所属するグループ会社支援チームを中心

                                                      グループ会社支援を目的とした開発支援専門会社|エムスリーテクノロジーズ株式会社を設立
                                                    • NVIDIA Triton Inference Server の性能検証 - LayerX エンジニアブログ

                                                      機械学習エンジニアの吉田です。今回は機械学習モデルの推論サーバとして NVIDIA Triton Inference Server の性能を検証した話です。 背景 バクラクでは請求書OCRをはじめとした機械学習モデルを開発していますが、これらの機械学習モデルは基本的にリアルタイムで推論結果を返す必要があります。 請求書OCRを例にとると、お客様が請求書をアップロードした際にその内容を解析し、請求書の金額や日付などを抽出します。 このような推論用のAPIサーバはNginx, Gunicorn/Uvicorn, FastAPIで実装し、PyTorchモデルをGPUで推論する構成となっており、SageMaker Endpointを使ってサービングしています。 バクラクの推論APIはこのような構成でリリース以降特に問題なく稼働してきていますが、ご利用いただくお客様が増えるにつれてリクエストも増加し

                                                        NVIDIA Triton Inference Server の性能検証 - LayerX エンジニアブログ
                                                      • 続・ムダな仕事を増やしてませんか? ~ MLの実行パイプラインでworker間の重複作業をなくす ~ - エムスリーテックブログ

                                                        DALL-E作成の「worker間で重複タスクを確認しながら作業を進める」イメージ図です こんにちは。AI・機械学習チーム(以下AIチーム)の池嶋(@mski_iksm)です。 仕事で、誰か一人がやればいい作業を、気がついたら同僚と同じタイミングでやっていた、という経験はありませんか? せっかく頑張って作った機能が実は被っていてムダになってしまった。。。というのは誰もが悲しいものです。 そうならないように作業チケットを切るなどしてタスクを中央管理する方法もありますが、もっとゆるくやりたいこともあるかと思います。 そういうときは一言「この作業私がやりますね!」と声掛けをすれば済みますね。 以前のブログで、私たちはgokartを使ったMLパイプラインの効率化について掘り下げました。 具体的には、「すでに完了したタスクをスキップする」と「タスクの実行順序をできるだけランダムにする」という2つの戦

                                                          続・ムダな仕事を増やしてませんか? ~ MLの実行パイプラインでworker間の重複作業をなくす ~ - エムスリーテックブログ
                                                        • 半導体の好況は「NVIDIAのGPU祭り」による錯覚? 本格回復は2025年以降か

                                                          2021年から2022年にかけてコロナ特需が起き、世界半導体市場は急成長した。ところが、2022年後半にコロナ特需が終焉(終えん)したため、2023年は史上最悪クラスの大不況に陥った。しかし、その大不況は2023年で底打ち、ことし(2024年)には本格回復すると期待されている。 そして、半導体市況が本格回復するかどうかはメモリの動向にかかっていると考えていた(拙著『2024年の半導体市場、本格回復はメモリ次第 ~HBMの需要増で勢力図も変わる?』)。 実際、種類別の半導体の四半期出荷額を見ると、Logicは既にコロナ特需のピークを超えて過去最高を更新している。また、Mos MicroとAnalogは、コロナ特需の終焉による落ち込みは大きくないため、2024年に過去最高を更新する可能性が高い(図1)。 その中で、Mos Memoryは大きく落ち込んだ後、2023年第1四半期(Q1)で底を打ち

                                                            半導体の好況は「NVIDIAのGPU祭り」による錯覚? 本格回復は2025年以降か
                                                          • NVIDIA、AI/ML開発者向けツールキット「NVIDIA AI Workbench」の一般提供を開始

                                                            NVIDIAは2024年3月21日(米国時間)、AI(人工知能)およびML(機械学習)開発者向けツールキット「NVIDIA AI Workbench」(以下、AI Workbench)の一般提供を開始した。公式サイトから無料でダウンロードできる。AI Workbenchの自動化機能により、開発初心者にとってのハードルを取り除き、専門家の生産性向上を支援するとしている。 開発者はAI Workbenchを使うことで、スキルレベルにかかわらず、高速で信頼性の高いGPU環境を構築し、異種プラットフォーム間で自由に作業、管理、コラボレーションができる。「NVIDIA AI Enterprise」のライセンスを購入すれば、エンタープライズサポートも受けられる。 AI Workbenchの特徴 関連記事 IBM、2024年に注目すべき9つのAIトレンドを解説 IBMは、2024年に注目すべき最も重要な

                                                              NVIDIA、AI/ML開発者向けツールキット「NVIDIA AI Workbench」の一般提供を開始
                                                            • AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中

                                                              NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera

                                                                AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中
                                                              • 【特集】 WQHDで240Hz VRR対応モニターを買って配信環境を更新しようとしたら、かなりの沼だった。パススルーのまやかしにも遭遇

                                                                  【特集】 WQHDで240Hz VRR対応モニターを買って配信環境を更新しようとしたら、かなりの沼だった。パススルーのまやかしにも遭遇
                                                                • 【笠原一輝のユビキタス情報局】 AI特化設計になったNVIDIA Blackwell、並列性を向上する仕組みが強化

                                                                    【笠原一輝のユビキタス情報局】 AI特化設計になったNVIDIA Blackwell、並列性を向上する仕組みが強化
                                                                  • データベースを止めずにリソースを変更するには? CPUとメモリーを動的に増減させる仕組み

                                                                    この連載では、開発者の皆様がシステム・アーキテクチャやアプリケーション・コードをより洗練させるのに役立つデータベース・マネジメント・システム(DBMS)の基本を振り返り、実装に合った技術の組み合わせを解説します。クラウドの登場によりハードウェア・リソースの調達は容易になりましたが、データベース・エンジンがシステムを稼働させたままハードウェア・リソースを動的に増減できるかというのはまた別の話です。今回は、データベース・エンジンのリソースを動的に増減させる実装について紹介します。 はじめに この連載は、第1回に紹介したDBMSの3階層構造における「アーキテクチャと実装」についての技術の紹介から始まり、第8回からはアプリケーションから見たデータ操作階層である「データ・モデルとデータ型」についてお伝えしてきました。 データベースは巨大なデータ量を扱うため、ハードウェアのリソースも大量に必要になりま

                                                                      データベースを止めずにリソースを変更するには? CPUとメモリーを動的に増減させる仕組み
                                                                    • NVIDIAファンCEO「日本は自らAI構築を」開発者会議で - 日本経済新聞

                                                                      【シリコンバレー=清水孝輔】米半導体大手エヌビディアのジェンスン・ファン最高経営責任者(CEO)は19日、開催中の開発者会議「GTC」に合わせて開いた記者会見で「日本は自ら人工知能(AI)を構築すべきだ」と述べた。日本はAIを積極活用することで生産性を高められると訴えた。ファン氏が19日、米カリフォルニア州サンノゼで開いた記者会見で日本に関する質問に答えた。日本語の学習データは特殊だと指摘し、

                                                                        NVIDIAファンCEO「日本は自らAI構築を」開発者会議で - 日本経済新聞
                                                                      • エヌビディア(NVIDIA)vs S&P 500 どっちが買い?

                                                                        エヌビディア社(NVIDIA)とS&P500は、どちらも投資家から人気のある投資対象です。エヌビディアは、半導体業界のリーダーで、人工知能(AI)やデータセンターなどの成長分野で強みを持っています。 S&P500は、米国の大企業500社の株式をまとめたインデックスで幅広い分野に投資することができます。エヌビディアはS&P500の構成銘柄の1つです。 エヌビディア社とS&P500の比較は、個別銘柄を買うか?ETFを買うのか?どちらがいいのかということになりますが、あまり比較では語られていません。しかし、資産形成にはとても重要な選択になります。 それぞれの概要や特徴、メリット・デメリットや今後の見通しなどを株のプロであるアドバイザーがわかりやすく解説しますので、今後の資産形成の一助としていただければ幸いです。 エヌビディア社とS&P500の概要 エヌビディア社(NVIDIA)とは エヌビディア

                                                                          エヌビディア(NVIDIA)vs S&P 500 どっちが買い?
                                                                        • NVIDIAが数兆パラメータ規模のAIモデルを実現するGPUアーキテクチャ「Blackwell」と新GPU「B200」を発表

                                                                          NVIDIAが技術カンファレンス「GTC 2024」の中で、2年ぶりの新たなGPUアーキテクチャ「Blackwell」と、BlackwellアーキテクチャベースのGPU「B200」を発表しました。Blackwellにより、あらゆる組織がコストとエネルギー消費を25分の1に抑え、数兆パラメータの大規模言語モデル(LLM)によるリアルタイム生成AIを構築・実行可能になるとNVIDIAは述べています。 生成 AI のための Blackwell アーキテクチャ | NVIDIA https://www.nvidia.com/ja-jp/data-center/technologies/blackwell-architecture/ Blackwellアーキテクチャは、2022年に発表されたHopperアーキテクチャの後継です。名前は、アメリカ科学アカデミーにアフリカ系アメリカ人として初めて殿堂入り

                                                                            NVIDIAが数兆パラメータ規模のAIモデルを実現するGPUアーキテクチャ「Blackwell」と新GPU「B200」を発表
                                                                          • NVIDIA、「Apple Vision Pro」と「Omniverse」で連携

                                                                            米NVIDIAは3月18日(現地時間)、年次カンファレンス「GTC 2024」で米Appleの空間コンピューティングデバイス「Apple Vision Pro」との連携による新たなプラットフォームを発表した。「Omniverse Cloud API」と「OpenUSD」ベースの新プラットフォームにより、企業顧客はApple Vision Pro上で製品の高品質なデジタルツインを体験できるようになる。 OmniverseはNVIDIAが2021年に発表したプラットフォーム。今回発表のAPIにより、Omniverseのツールやデータをクラウドベースのインフラで利用できるようになった。 開発者は、SwiftUIとRealityKitを使って、NVIDIA Omniverse採用のApple Vision Pro向けアプリを開発できる。そうしたアプリのユーザーは、ストリーミングされるデジタルツイン

                                                                              NVIDIA、「Apple Vision Pro」と「Omniverse」で連携
                                                                            • 新GPU「Blackwell」など、NVIDIAのソリューションを網羅したGTC基調講演

                                                                                新GPU「Blackwell」など、NVIDIAのソリューションを網羅したGTC基調講演
                                                                              • NVIDIAの新アーキテクチャ「Blackwell」は生成AI特化、汎用人型ロボットにも適用

                                                                                NVIDIAの新アーキテクチャ「Blackwell」は生成AI特化、汎用人型ロボットにも適用:人工知能ニュース(1/2 ページ) NVIDIAは「GTC 2024」において、新たなGPUアーキテクチャ「Blackwell」を発表。AI処理性能で前世代アーキテクチャ「Hopper」の5倍となる20PFLOPSを達成。生成AIの処理性能向上にも注力しており、Hopperと比べて学習で4倍、推論実行で30倍、消費電力当たりの処理性能で25倍となっている。 NVIDIAは2024年3月18日(現地時間)、米国サンノゼで開催中のユーザーイベント「GTC(GPU Technology Conference) 2024」(開催期間:同年3月17~21日)の基調講演において、新たなGPUアーキテクチャ「Blackwell」を発表した。浮動小数点演算ベースのAI(人工知能)処理性能で、2022年3月発表の前

                                                                                  NVIDIAの新アーキテクチャ「Blackwell」は生成AI特化、汎用人型ロボットにも適用
                                                                                • NVIDIA、GPUプラットフォーム「Blackwell」発表 「兆パラメータ規模のAIモデル実現」

                                                                                  プラットフォームに搭載する「GB200 Grace Blackwell Superchip」は、新GPU「B200」(2080億個のトランジスタを搭載し、現行の「H100」と比較して、AI向けの作業で5倍の処理能力を発揮するGPU)を2基と1基のGrace CPUを組み合わせたもの。 NVIDIAによると、1兆8000億パラメータのAIモデルをトレーニングするには、Hopper GPUでは8000個のGPUで15メガワットの電力が必要だったが、新スーパーチップであれば2000個で可能で、消費電力は4メガワットで済むという。 NVIDIAはGB200を、水冷ラックスケールシステム「NVL72」などで提供する。これは第5世代NVLinkで接続された72個のBlackwel GPUと36個のGrace CPUを含む36個のGrace Blackwellスーパーチップを搭載する。 Blackwel

                                                                                    NVIDIA、GPUプラットフォーム「Blackwell」発表 「兆パラメータ規模のAIモデル実現」