エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
インテル、オープンソースのNPU高速化ライブラリを公開。最新ノートPC上で軽量LLMが動作 | Gadget Gate
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
インテル、オープンソースのNPU高速化ライブラリを公開。最新ノートPC上で軽量LLMが動作 | Gadget Gate
PC Appleシリコンに対する逆襲 インテル、オープンソースのNPU高速化ライブラリを公開。最新ノートPC上... PC Appleシリコンに対する逆襲 インテル、オープンソースのNPU高速化ライブラリを公開。最新ノートPC上で軽量LLMが動作 Image:Intel/YouTube インテルはついに、オープンソースのNPU(Neural Processing Unit)アクセラレーション・ライブラリを公開した。これにより、開発者らはアプリを同社のAIエンジンに最適化でき、ローカルPC上でLLM(大規模言語モデル)を動かしやすくなった。 この一報は、インテルの技術エバンジェリスト(自社製品の特徴などを分かりやすく説明し、普及させる役職)、トニー・モンコルスマイ氏がXで述べたことだ。これにより、MSI Prestige 16 AI Evo(インテルCore Ultraプロセッサー搭載ノートPC)上で、TinyLlamaとGemma-2b-itといった軽量LLMが動かせたと付け加えている。 For devs