サクサク読めて、アプリ限定の機能も多数!
“Transformerベースのモデル「phi-1」を発表。このモデルは、パラメーター数がGPT-3.5の100分の1以下の13億しかないにもかかわらず、テスト用データセット・HumanEvalでGPT-3.5を上回る成績を収めたことが報告されています。”
misshiki のブックマーク 2023/06/23 14:48
Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表[Transformer][Microsoft][人工知能][自然言語処理]“Transformerベースのモデル「phi-1」を発表。このモデルは、パラメーター数がGPT-3.5の100分の1以下の13億しかないにもかかわらず、テスト用データセット・HumanEvalでGPT-3.5を上回る成績を収めたことが報告されています。”2023/06/23 14:48
このブックマークにはスターがありません。 最初のスターをつけてみよう!
gigazine.net2023/06/22
LLaMaやFalconといった小型の大規模言語モデル(LLM)が矢継ぎ早にリリースされる中、Microsoft ResearchのAI研究チームが、プレプリントサーバーのarXivで、Transformerベースのモデル「phi-1」を発表しました。こ...
228 人がブックマーク・35 件のコメント
\ コメントが サクサク読める アプリです /
“Transformerベースのモデル「phi-1」を発表。このモデルは、パラメーター数がGPT-3.5の100分の1以下の13億しかないにもかかわらず、テスト用データセット・HumanEvalでGPT-3.5を上回る成績を収めたことが報告されています。”
misshiki のブックマーク 2023/06/23 14:48
このブックマークにはスターがありません。
最初のスターをつけてみよう!
Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表
gigazine.net2023/06/22
LLaMaやFalconといった小型の大規模言語モデル(LLM)が矢継ぎ早にリリースされる中、Microsoft ResearchのAI研究チームが、プレプリントサーバーのarXivで、Transformerベースのモデル「phi-1」を発表しました。こ...
228 人がブックマーク・35 件のコメント
\ コメントが サクサク読める アプリです /