エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
手軽に合成される大規模言語モデル
手軽に合成される大規模言語モデル 2024.01.18 Updated by Ryo Shimizu on January 18, 2024, 13:42 pm ... 手軽に合成される大規模言語モデル 2024.01.18 Updated by Ryo Shimizu on January 18, 2024, 13:42 pm JST 去年は大規模言語モデル(LLM;Large Language Model)の年と言っても過言ではなかった。 各社が独自の大規模言語モデルの構築に躍起になり、数千万円から数億円を投じたのは記憶に新しい。 大規模言語モデルの性能指標の一つとなるのが、「規模」だ。 この「規模」は、大規模言語モデルのパラメータ数で測られる。パラメータ数が多いほど記憶容量が大きい、つまり「脳が大きい」ということになる。 脳がどのくらい大きいのが最もいいのかはまだわかっていないが、参考までに、GPT-3は1750億パラメータの「脳」であり、単位が大きすぎるので通常は10億を意味する「B(illion)」をつけて175Bと呼んだりする。 Meta社が(
2024/01/18 リンク