コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕
コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕
OpenAIが有害なAIのリスクと脅威から守るために社内の安全プロセスを見直し、「Safety Advisory Group(安全諮問グループ)」を技術チームの上に設立することを発表しました。このSafety Advisory Groupは継続的にAIモデルに対するテストを実施し、危険性があった場合は経営陣と取締役会に勧告を行うとのことです。 Preparedness https://openai.com/safety/preparedness Preparedness Framework(Beta) | OpenAI (PDFファイル)https://cdn.openai.com/openai-preparedness-framework-beta.pdf We are systemizing our safety thinking with our Preparedness Frame
自動運転車の開発が本格化している。トヨタは2020年の東京オリンピックで“お披露目”すると発表、ホンダはグーグル傘下のIT企業ウェイモと提携し、2025年までにはレベル4(システムによる主導運転)の自動運転車を開発すると名言している。 ドライバー不在でも、私たちの望む場所へ運んで行ってくれる夢のような車。以前なら、ドラえもんのポケットからしか出てきそうになかったようなシロモノの実現が目前に迫っている。 しかし、もしこの「夢の車」が殺人機になる可能性があるならば…あなたはどうするだろう。購入するか、それとも買い控えるか。そして、車が起こした殺人は誰の責任になる? 2014年、自動運転車の「倫理観」を問う興味深い実験が行なわれた。もし誰かを犠牲にしなければならない場合、自動運転車はどのような選択をすべきか。いわゆる「トロッコ問題」である。 「Aを犠牲にしてBを救う」トロッコ問題とは? 「トロッ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く