Hot Chips 31においてNVIDIAは、研究中のマルチチップのAIチップを発表した。AIなどのチップの規模は増大しており、1チップにするには大きすぎる。AIチップではないが、AMDはCPUチップを細分化し、I/Oチップと合わせてインタポーザに載せるというやり方を採っている。こうすれば個々のCPUチップは小さいので歩留まりが高く、低コストで作れるという。 AI用のエンジンでも事情は同じで、大きなチップを複数の小さなチップに分けて、インタポーザに載せて相互接続して、大きなチップと同じ、あるいはよりメリットが出せれば都合が良い。このような可能性を探るのが、今回発表されたNVIDIAの研究チップである。 発表を行ったのはNVIDIのSenior Research ScientistのRangharajan Venkatesan氏である。 NVIDIAのAI研究チップを発表するシニアリサーチ
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます NVIDIAは米国時間8月13日、自然言語理解に向けた同社の人工知能(AI)テクノロジーの進歩について発表するとともに、対話型AIの訓練で新たな世界記録を打ち立てたと述べた。NVIDIAは、同社のAIプラットフォームが最速の訓練記録を樹立するとともに、最速の推論と過去最大の訓練モデルを実現したと述べた。 NVIDIAは同社のAIプラットフォームとGPUに決定的な最適化を施すことで、対話型AIサービスの卓越したプロバイダーになろうとしている。同社によると、対話型AIサービスはこれまで、大規模なAIモデルをリアルタイムで配備する際に発生するさまざまな能力上の問題により、限定的なものとなっていたという。 NVIDIAの応用ディープラーニング(
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く