エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Cerebras-CS2で大規模言語モデルを3日で作ってみた | 東京エレクトロンデバイス
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Cerebras-CS2で大規模言語モデルを3日で作ってみた | 東京エレクトロンデバイス
最近すっかり定着してきた感のあるChatGPT、利用されている人も多いのではないでしょうか? このChatGPT... 最近すっかり定着してきた感のあるChatGPT、利用されている人も多いのではないでしょうか? このChatGPTを支えるのが大規模言語モデル(Large Language Model:LLM)と呼ばれるディープラーニングモデルです。 自然言語処理のディープラーニングでは、非常に巨大なニューラルネットワークのモデルを作る必要があり、モデル作成に数か月を要することもあります。このため、学習するマシンのメモリ量や計算速度がとても重要です。 当社のTED AI Labでは、ディープラーニング専用の超高速マシンCerebras CS-2を活用できる環境を提供しています。この世界最速級のマシンがすぐに使える!ということで、今回はBERT Largeのアルゴリズムを使って事前学習を行いその処理速度を体感してみました。 Cerebras CS-2って? Cerebrasは世界最大の巨大チップを備えたディー