エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
「AIの学習データが底をつく」’2026年問題’の衝撃度とその対策とは?
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「AIの学習データが底をつく」’2026年問題’の衝撃度とその対策とは?
AIの学習データが底をつく(Bing Image Creatorで筆者作成) 「AIの学習データが底をつく」――’2026年問... AIの学習データが底をつく(Bing Image Creatorで筆者作成) 「AIの学習データが底をつく」――’2026年問題’が、改めて注目を集めている。 AI研究の第一人者の1人、カリフォルニア大学バークレー校教授のスチュアート・ラッセル氏が、国連のAIサミットでこの問題を指摘した。 チャットGPTのような大規模言語モデル(LLM)の開発には、膨大な学習データが必要だ。 主な収集先はネットだが、使えそうなデータは徐々に使い尽くされ、良質なデータは2026年には底をつくと見られている。 ツイッターは7月初め、利用回数の制限を実施し騒動となった。その引き金になったのも、AIの学習データ収集のためのアクセス集中だったという。 「大きいことはいいことだ」という大規模言語モデルの開発に、壁が立ちふさがっている。 ●「レンガの壁にぶつかる」 個人的には、大規模言語モデルをどんどん大きくして、より