経済産業省所管の研究機関である産業技術総合研究所は、米エヌビディアと協力して量子計算ができるシステムをつくる。2025年度以降に企業や研究者が有償で使えるようにする。量子計算は高速で複雑な計算処理が可能で、創薬研究や物流の効率改善につなげる。産総研がスーパーコンピューターと量子コンピューターをつなげた計算基盤「ABCI-Q」の運用を始める。量子コンピューターは単独では計算ミスが多い課題がある。
NVIDIAは2024年3月21日(米国時間)、AI(人工知能)およびML(機械学習)開発者向けツールキット「NVIDIA AI Workbench」(以下、AI Workbench)の一般提供を開始した。公式サイトから無料でダウンロードできる。AI Workbenchの自動化機能により、開発初心者にとってのハードルを取り除き、専門家の生産性向上を支援するとしている。 開発者はAI Workbenchを使うことで、スキルレベルにかかわらず、高速で信頼性の高いGPU環境を構築し、異種プラットフォーム間で自由に作業、管理、コラボレーションができる。「NVIDIA AI Enterprise」のライセンスを購入すれば、エンタープライズサポートも受けられる。 AI Workbenchの特徴 関連記事 IBM、2024年に注目すべき9つのAIトレンドを解説 IBMは、2024年に注目すべき最も重要な
NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera
NVIDIAの新アーキテクチャ「Blackwell」は生成AI特化、汎用人型ロボットにも適用:人工知能ニュース(1/2 ページ) NVIDIAは「GTC 2024」において、新たなGPUアーキテクチャ「Blackwell」を発表。AI処理性能で前世代アーキテクチャ「Hopper」の5倍となる20PFLOPSを達成。生成AIの処理性能向上にも注力しており、Hopperと比べて学習で4倍、推論実行で30倍、消費電力当たりの処理性能で25倍となっている。 NVIDIAは2024年3月18日(現地時間)、米国サンノゼで開催中のユーザーイベント「GTC(GPU Technology Conference) 2024」(開催期間:同年3月17~21日)の基調講演において、新たなGPUアーキテクチャ「Blackwell」を発表した。浮動小数点演算ベースのAI(人工知能)処理性能で、2022年3月発表の前
プラットフォームに搭載する「GB200 Grace Blackwell Superchip」は、新GPU「B200」(2080億個のトランジスタを搭載し、現行の「H100」と比較して、AI向けの作業で5倍の処理能力を発揮するGPU)を2基と1基のGrace CPUを組み合わせたもの。 NVIDIAによると、1兆8000億パラメータのAIモデルをトレーニングするには、Hopper GPUでは8000個のGPUで15メガワットの電力が必要だったが、新スーパーチップであれば2000個で可能で、消費電力は4メガワットで済むという。 NVIDIAはGB200を、水冷ラックスケールシステム「NVL72」などで提供する。これは第5世代NVLinkで接続された72個のBlackwel GPUと36個のGrace CPUを含む36個のGrace Blackwellスーパーチップを搭載する。 Blackwel
「AI開発をリードするということは、ハードウェアインフラへの投資でリードするということ」として、MetaがAIのための投資として行っている、2万4000基以上のGPUを搭載したデータセンタースケールのクラスターの情報を明らかにしました。 Building Meta’s GenAI Infrastructure - Engineering at Meta https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/ Meta reveals details of two new 24k GPU AI clusters - DCD https://www.datacenterdynamics.com/en/news/meta-reveals-details-o
米半導体大手エヌビディアが圧倒的優位を保ってきたAI(人工知能)半導体を巡る戦いは、すでに新たな戦線に移りつつある。その市場ははるかに大規模だが、競争のし烈さも増すとみられる。 エヌビディアはAIモデルを学習させるとてつもなく複雑な作業に欠かせない半導体を供給することで、2兆ドル(約300兆円)企業へと上り詰めた。AI業界が急速に進化する中、今後より大きなチャンスがあるのは、学習後にそれらのモデルを動かす半導体を売ることだろう。生成AIツールを実際に利用する企業や人々は急増しており、彼らのために文章や画像を大量に生み出すものだ。 現時点で、このようなシフトはエヌビディアの急増する売上高をさらに押し上げている。同社のコレット・クレス最高財務責任者(CFO)は先週、過去1年のデータセンター事業──売上高は470億ドルを突破──のうち、学習用ではなくAIシステム配備に伴うものが40%以上を占めた
携帯大手のソフトバンクとアメリカの半導体大手エヌビディアは、AIの膨大なデータの処理に携帯電話の基地局を活用しようと、新たな業界団体を設立することを正式に発表しました。団体にはアメリカのAWSや韓国のサムスン電子など11社が参加し、世界標準化を目指します。 ソフトバンクとエヌビディアは、26日、スペイン・バルセロナで開幕したモバイル関連の展示会で、新たな業界団体「AIーRANアライアンス」の設立を発表しました。 AIの運用に必要となる膨大なデータの処理を、大規模なデータセンターを介さずに携帯電話の基地局で分散化させる技術の実用化を目指します。 団体には通信大手のエリクソンやノキアのほか、アメリカのマイクロソフトとAWS=アマゾンウェブサービス、それに韓国のサムスン電子など世界の合わせて11の企業や団体が参加し、技術の世界標準化を目指すねらいがあります。 この技術を使うことで、スマートフォン
大手ハイテク各社は世界中に巨大データセンターを建設しているが、それによって引き起こされる二酸化炭素排出量の大幅な増加の回避にも躍起になっている。 多くの電力を消費する人工知能(AI)がクラウド化されるのに伴い、太陽光発電や風力発電に余剰がある地域をソフトウエアを使って探し出し、そこでデータセンターの運営を強化するという手法も広がりつつある。二酸化炭素排出量とコストを削減することが可能になるからだ。 クラウドコンピューティングの管理を手掛けるシーラス・ネクサスの共同創業者で最高経営責任者(CEO)を務めるクリス・ノーブル氏は「再生可能エネルギーを最大限に利用するやり方でデータセンターを運営する方法を見つけ出すことが急務だ」と語った。 AIが必要とするコンピューティングがもたらす気候変動リスクは広範に及び、化石燃料を使用する電力からクリーンな電力への大幅な転換がなければ一段と悪化する恐れがある
アメリカの大手半導体メーカー、エヌビディアの先月までの3か月間の決算は、生成AIの利用の急速な拡大を背景に、最終的な利益が前の年の同じ時期の8倍以上となるなど、大幅な増収増益となりました。 アメリカ西部カリフォルニア州に拠点を置く大手半導体メーカー、エヌビディアは21日、去年11月から先月までの3か月間の決算を発表しました。 それによりますと、売り上げは前の年の同じ時期の3.7倍に増えて221億300万ドル、日本円でおよそ3兆3100億円。 最終的な利益は前の年の同じ時期の8.7倍に増えて122億8500万ドル、日本円でおよそ1兆8400億円と大幅な増収増益になり、いずれも市場の予想を上回りました。 生成AIの利用が世界で急速に拡大し、この会社が生産する画像を処理する半導体で、大量の計算を同時に実行できる「GPU」の需要がデータセンター向けなどで急増したことが主な要因です。 また、ことし4
NVIDIAがGeForce RTX GPUで動作する技術デモ「Chat with RTX」を無料でリリースしました。ユーザーはChat with RTXを独自のコンテンツでパーソナライズでき、システム要件はVRAMが8GB以上のRTX 30シリーズ以降のGPUを搭載したWindowsマシンとなっています。 Chat with RTX Now Free to Download | NVIDIA Blog https://blogs.nvidia.com/blog/chat-with-rtx-available-now/ NVIDIA Brings Generative AI to Millions, With Tensor Core GPUs, LLMs, Tools for RTX PCs and Workstations | NVIDIA Newsroom https://nvidia
NVIDIAのコンピューティング向けGPU活用技術「CUDA」をIntel GPUで実行できるようにしたソフトウェア「ZLUDA」が復活しましたが、IntelではなくAMDのGPUで動作するよう改変が加えられていました。 AMD Quietly Funded A Drop-In CUDA Implementation Built On ROCm: It's Now Open-Source - Phoronix https://www.phoronix.com/review/radeon-cuda-zluda Software allows CUDA code to run on AMD and Intel GPUs without changes — ZLUDA is back but both companies ditched it, nixing future updates | T
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く