エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【ELYZA-japanese-Llama-2-70b】日本語特化モデル最大級の700億パラメーターLLMを使ってみた | WEEL
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【ELYZA-japanese-Llama-2-70b】日本語特化モデル最大級の700億パラメーターLLMを使ってみた | WEEL
WEELメディア事業部LLMライターのゆうやです。 2024年3月12日、ELYZA-japanese-Llama-2-7bなどの日本語... WEELメディア事業部LLMライターのゆうやです。 2024年3月12日、ELYZA-japanese-Llama-2-7bなどの日本語特化LLMを開発してきたELYZA社が、最新の700億パラメータの大規模言語モデル (LLM) である「ELYZA-japanese-Llama-2-70b」を公開しました。 【お知らせ】700億パラメータの日本語LLM「ELYZA-japanese-Llama-2-70b」を開発し、グローバルモデルに匹敵する性能を達成しました。デモサイトも同時に公開しています。 詳細は以下をクリックしてご覧ください。https://t.co/kw8euBuKz5 — ELYZA, Inc. (@ELYZA_inc) March 12, 2024 このモデルは、これまでのモデルと同様に、Meta社の「Llama2」をベースに、日本語の追加事前学習と事後学習を行い、Llam