エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
AIのトレーニングを大幅に安く高速化できるLLM「phi-1.5」が登場 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
AIのトレーニングを大幅に安く高速化できるLLM「phi-1.5」が登場 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
Image credit: HuggingFace 「ChatGPT」「LLaMA 2」「Claude 2」「Bard」「Falcon 180B」など、現在エン... Image credit: HuggingFace 「ChatGPT」「LLaMA 2」「Claude 2」「Bard」「Falcon 180B」など、現在エンタープライズソフトウェア市場で話題になっているような AI の大規模言語モデル(LLM)のトレーニングには、大規模で専門的な計算能力が必要だ。そのため、OpenAI、Meta、Cohere、Google、Abu Dhabi の Technology Innovation Institute など、資金力のある大規模な組織がその役割を担っているのは不思議ではない。 しかし、Microsoft Research 機械学習基盤(Machine Learning Foundation)チームのリーダー Sebastien Bubeck 氏は、彼らの新しい非商用の「phi-1.5」のようなオープンソースでリソース効率の良いモデルの研究のおかげ