エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント3件
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「ChatGPT」OpenAIは安全性を後回しにしている 退職した社員が批判
OpenAIが2023年7月に結成した、超知能(スーパーインテリジェンス)の制御と安全性の確保を目指す「スー... OpenAIが2023年7月に結成した、超知能(スーパーインテリジェンス)の制御と安全性の確保を目指す「スーパーアライメント(Superalignment)チーム」を率いていたイリヤ・サツケバー氏、ヤン・ライケ氏が相次いで退社を発表、ライケ氏は「安全性が製品開発より後回しになっている」と同社をXの投稿で批判した。 サム・アルトマンCEOの解任騒動以来混乱が続くOpenAI首脳陣だが、サツケバー氏を中心とした「慎重派」がほぼ一掃された形になる。 計算リソースの20%を投入し4年以内の解決を目指す 2023年7月5日、OpenAIはAIが人間の意図に従うようにするための科学的および技術的な突破口を見つけることを目標にした「スーパーアラインメント」チームを結成。サツケバー氏とライケ氏が共同リーダーを務め、計算リソースの20%を投入、4年以内にこの問題を解決すると宣言されていた。 中心人物2人が同
2024/05/21 リンク