サクサク読めて、アプリ限定の機能も多数!
“同じくMoEアーキテクチャを採用したMixtralやGrok-1が8人の専門家を搭載し、入力ごとに2人をアクティベートするのに対し、DBRXは16人の専門家を搭載して入力ごとに4人をアクティベートします”
deejayroka のブックマーク 2024/03/30 12:53
Databricksがオープンな大規模言語モデル「DBRX」をリリース、GPT-3.5やCodeLLaMA-70Bを上回る性能[人工知能][techfeed]“同じくMoEアーキテクチャを採用したMixtralやGrok-1が8人の専門家を搭載し、入力ごとに2人をアクティベートするのに対し、DBRXは16人の専門家を搭載して入力ごとに4人をアクティベートします”2024/03/30 12:53
このブックマークにはスターがありません。 最初のスターをつけてみよう!
gigazine.net2024/03/28
データ分析ツールなどを提供する企業のDatabricksが、2024年3月27日にオープンな汎用大規模言語モデル(LLM)である「DBRX」を発表しました。オープンライセンスでの配布となっており、月間アクティブユーザーが7億...
13 人がブックマーク・2 件のコメント
\ コメントが サクサク読める アプリです /
“同じくMoEアーキテクチャを採用したMixtralやGrok-1が8人の専門家を搭載し、入力ごとに2人をアクティベートするのに対し、DBRXは16人の専門家を搭載して入力ごとに4人をアクティベートします”
deejayroka のブックマーク 2024/03/30 12:53
このブックマークにはスターがありません。
最初のスターをつけてみよう!
Databricksがオープンな大規模言語モデル「DBRX」をリリース、GPT-3.5やCodeLLaMA-70Bを上回る性能
gigazine.net2024/03/28
データ分析ツールなどを提供する企業のDatabricksが、2024年3月27日にオープンな汎用大規模言語モデル(LLM)である「DBRX」を発表しました。オープンライセンスでの配布となっており、月間アクティブユーザーが7億...
13 人がブックマーク・2 件のコメント
\ コメントが サクサク読める アプリです /