エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Apple、画面の状況を見て理解できるAI「ReALM」を論文発表(GPT-4以上の性能) | NEWS | Mac OTAKARA
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Apple、画面の状況を見て理解できるAI「ReALM」を論文発表(GPT-4以上の性能) | NEWS | Mac OTAKARA
※本サイトは、アフィリエイト広告および広告による収益を得て運営しています。購入により売上の一部が本... ※本サイトは、アフィリエイト広告および広告による収益を得て運営しています。購入により売上の一部が本サイトに還元されることがあります。 AppleのMachine Learning Researchが、arXivにおいて「ReALM: Reference Resolution As Language Modeling」を論文発表しています。 ReALMは、画面上の物体への曖昧な言及や会話や背景の文脈を理解し、音声アシスタントとのより自然なやりとりを可能にする新たな人工知能システムだと説明しています。 ReALMの最小のモデルでは、画面上の参照において5%以上の絶対的な改善を得ることができたとし、また、GPT-3.5とGPT-4に対するベンチマークを行い、ReALMの最小モデルはGPT-4と同等の性能を達成し、ReALMの大型モデルはGPT-4を大幅に上回る性能を達成したと説明しています。 A