私のテーマについてお話しする前に、二、三の導入を述べさせてください。私の思想を皆さんに伝えることに、私は大きな困難を感じていますが、それを前もって皆さんに述べておくことで、いくらか困難を軽減できると思うからです。困難の第一は、言うまでもないことですが、英語は私の母国語ではありません。従って、難しいテーマについて語るときに望まれる正確さと微妙なニュアンスが、私の表現には欠ける場合が多いのです。私としては、私が英語の文法について犯す多くの間違いにめげず、私が意味するところを努めて理解するよう、皆さんにお願いするほかありません。そうしていただければ、私もやりやすくなると思います。第二の困難は、おそらく多くの方が、幾分間違った期待を抱いてこの講話に参加されていることです。この点に関する皆さんの思い違いを訂正するために、私がテーマを選んだ理由を少し話しましょう。本協会の前任の主事の方から、光栄にも講
12月21 児玉真美『安楽死が合法の国で起こっていること』(ちくま新書) カテゴリ:社会8点 相模原障害者施設殺傷事件、京都ALS嘱託殺人事件、そして映画『PLAN 75』など、日本でもたびたび安楽死が話題になることがあります。 安楽死については当然ながら賛成派と反対派がいますが、賛成派の1つの論拠としてあるのは「海外ではすでに行われている」ということでしょう。 著者は以前からこの安楽死問題について情報を発信してきた人物ですが、著者が情報発信を始めた2007年頃において、安楽死が合法化されていたのは、米オレゴン州、ベルギー、オランダの3か所、それとスイスが自殺幇助を認めていました。 それが、ルクセンブルク、コロンビア、カナダ、ニュージーランド、オーストラリア(一部を除く)、スペイン、ポルトガルに広がり、米国でもさまざまな州に広がっています。 では、そういった国で実際に何が起こっているのか?
CEOの突然の解任と復帰、理事会の再編劇 背後に「思想」対立? まずOpenAI内紛劇を簡単に「おさらい」しておこう。 OpenAIの理事会は11月17日にサム・アルトマンCEO(最高経営責任者)を解任。ところがわずか5日後、11月22日にアルトマンはCEOとして復帰すると発表された。 ただしアルトマンは理事の地位は失い、また自分の行動について独立した調査を受けることに同意した。OpenAIの理事会は再編となり、旧理事6名のうち、アダム・ダンジェロ(Quora CEO)だけが残り、ブレット・テイラー(元Salesforce 共同CEO、元Twitter 取締役会会長)、ローレンス・サマーズ(ハーバード大学教授、元財務長官)の2名を加えた3人態勢での再出発となった。 OpenAIのサム・アルトマン前最高経営責任者(CEO)=2023年11月6日、サンフランシスコ、五十嵐大介撮影 アルトマン解
生成AIブームは軍事分野にも影響を与え、スタートアップは活況を呈している。だが、人間の生命に直接関わるような用途よりも、もっと退屈でつまらない仕事でAIを使うべきだ。 by Melissa Heikkilä2023.09.20 11 6 この記事は米国版ニュースレターを一部再編集したものです。 先日掲載した、戦争における人工知能(AI)の厄介な倫理に関するこの記事は、夏季休暇から仕事に戻った私の血圧を再び上昇させる気付け薬になった。 アーサー・ホランド・ミッチェルは、戦争と軍によるAIツールの使用増加に関する複雑で微妙な倫理的問題を見事に分析している。AIが致命的な失敗を犯したり、紛争で悪用される可能性はいくらでもあり、そのような事態を防ぐための現実的なルールはまだ存在しないようだ。この記事は、物事が誤った方向に進んだとしても、人々に責任を負わせることがいかに少ないかを物語っている。 私は
過剰な自己責任論や「本音」に名を借りた暴言に対して、私たちはどう向き合うべきか。立岩真也教授に話を聞いた。
「昔の方が良かった」といった過去を理想化する発言はたびたび聞かれます。しかし心理学者のアダム・マストロヤンニ氏とダニエル・ギルバート氏による研究では、個人の倫理観は年々低下しているということはなく、比較的安定していることが報告されています。 The illusion of moral decline | Nature https://doi.org/10.1038/s41586-023-06137-x Think morality is declining? That's an illusion, researchers say. - The Washington Post https://www.washingtonpost.com/wellness/2023/06/15/humanity-morality-decline-illusion/ The illusion of moral
私たち日本俳優連合は、俳優・声優の権利を守るため、60年前から活動してまいりました。今般、Artificial Inteligence、いわゆるAI技術、機械学習という新たな技術が開発され、世界中で議論を起こしていることは皆様ご存じの通りです。私たち実演家としても、新しい技術の進化による人間社会の発展は望ましいことであると考えます。 ただその一方で、この新しい技術が私たち実演家の、表現の模倣・盗用を安易に促し、職域を侵害する恐れがあるのではと危惧しております。つきまして、私たち日本俳優連合として、以下5つの提言を行い、業界内でのガイドライン作り、国としての法律制定、ひいては国際的な枠組みでのルール構築を切に望みます。 国内外での意見交換を活発に行うとともに、EUによるAIACTの考え方に大いに賛同し、これを参考にしたガイドラインの策定を行う 学習素材は著作者が許可を与えたもののみを使用可能
[22日 ロイター] - 対話型人工知能(AI)「チャットGPT」を開発した米スタートアップ企業オープンAIのグレッグ・ブロックマン社長は22日、世界的なAI規制の在り方の1つとして、オンライン百科事典の「ウィキペディア」に似たモデルを想定していることを明らかにした。ゴールドマン・サックス・グループが主催したイベントでの発言。 ブロックマン氏は、このモデルではウィキペディアのように、人々の多様な意見を合体させて合意形成に持って行く必要があると指摘。「われわれはシリコンバレーの思考様式にとどまっているわけではない。民主的な意思決定について考え始めている」と語った。 オープンAIが22日のブログに投稿した内容によると、ブロックマン氏は世界各国が協調してAIの安全な開発の道筋を確保するという展開についても議論しているもようだ。 ブロックマン氏とオープンAIは、国際原子力機関(IAEA)のような組
AIが及ぼすリスクの軽減を目指す非営利団体 Center for AI Safety (CAIS)が、AI専門家や各界著名人による共同声明『Statement on AI Risk』(AIの危険性についての声明)を公表しました。 声明はわずか22語の極めて簡潔な内容です。 Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war. 仮訳すれば「AIによる人類絶滅の危険性を軽減することは、他の社会的規模リスク、たとえばパンデミックや核戦争と並んで世界的な優先課題であるべきです」。 署名者のごく一部を挙げれば、 ジェフリー・ヒントン:「機械学習の父」「AIのゴッドファーザー
「なぜ自殺をしてはならないのか」。この問いに導かれて、アメリカの歴史学者ジェニファー・マイケル・ヘクトが哲学の歴史の森に分け入り、思索し、著した『自殺の思想史――抗って生きるために』の邦訳が、このたび、みすず書房より刊行された。批評家のベンジャミン・クリッツァー氏が、同書の議論を紹介する。 「自殺」の論じられにくさ 「自殺」は重大な問題だ。大半の人は、家族や友人が自殺をしようと考えていることを知ったらそれを阻止しようと努力するだろうし、親密な相手が自殺を検討したことがあるという事実を知るだけでもショックを受けるだろう。自分自身が自殺を考えていた時期がある人は、その時分の記憶を苦々しさや不安と共に思い返すはずである。そして、実際に家族や友人に自殺してしまい、心に傷を抱えながら生きている人は多々いる。 また、自殺は個人的にだけでなく社会的にも重大な問題と見なされている。自殺者が多い社会はそうで
。 @madanaizo 酒鬼薔薇事件後、TVで「何故人を殺しては駄目なの?」と質問した若者がいて、騒動になった。で、色んな人が若者に「だからダメ」と説教したけど、若者の質問には「殺してもいいだろ」ではなく、「俺も殺したらダメだと思うが、その理由がまだ分からない。だから教えて欲しい」というニュアンスがあった 2022-10-11 12:22:51 。 @madanaizo いわば、若者の心を置き去りにしたところで、議論だけが盛り上がった。こういうのは本当はイカンのではないか、こういう話題こそ「心」の場所に戻って一対一で話し合うべきではないか… と 昔、加藤典洋が書いてて。昨日ソレを読み返したら、なんか凄く懐かしい気がしたよ。SNSの議論は全部コレだよ 2022-10-11 12:22:52 リンク Wikipedia 加藤典洋 加藤 典洋(かとう のりひろ、1948年(昭和23年)4月1日
思い通りのコンテンツを生成できるAIが不正研究を加速 ディープフェイクを見破るためにかかりすぎるコスト 小林啓倫 経営コンサルタント 20世紀初頭のこと。英イーストサセックスのピルトダウンにおいて、アマチュア考古学者のチャールズ・ドーソンがいくつかの化石人骨を発見した。彼は大英博物館のアーサー・スミス・ウッドワード卿と共に発掘・研究を続け、1912年、これらは新種の原始人類の化石で画期的な発見であるとして発表した。いわゆる「ピルトダウン人」である。 結論から言えば、このピルトダウン人は真っ赤な嘘で、数々の証拠も捏造されたものだった。人間やオラウータンの骨を加工し、さらに着色や摩耗といった処理をほどこすことで、それらしい「化石」を作り上げていたのだ。ピルトダウン人事件は研究不正の代表的な例、またもっとも大胆な例のひとつとして、現在でもよく知られている。 しかしドーソンらの主張が明確に嘘と判定
「この人、家賃を滞納しそう?」AIが予測 入居審査を45分→16分に - ITmedia NEWS いやーこれはまずい。この件に限らず、「悪いやつをAIで予測する」というのはすなわち 「あなたに似た人が悪いことをしたので、あなたも悪い人と見なします」 ということだからだ。 レストランのランプ たとえばこんな例を考えてみよう。ある街でレストランが強盗に襲われる事件が相次いだ。これを防ぐため、レストランの入口に防犯カメラを設置することにした。このカメラはAIで犯罪者の顔を学習していて、「犯罪を犯しそう」な人間を検知してくれるのだ。 もちろん検知するといってもサイレンが鳴ったりするわけじゃない。あくまで「犯しそう」なだけで、まだ犯罪を犯したわけではないからね。でもキッチンに置いてある赤いランプがピカピカ光って、「要注意人物」が来たことはわかるようになっている。ああこれで安心だ。 …さて、これは本
人工知能(AI)が当たり前のようにさまざまなテクノロジーに応用されるようになった時代に、人間の専門知識を守るために必要なことをまとめた書籍「New Laws of Robotics: Defending Human Expertise in the Age of AI(新しいロボット法:AI時代に人間の専門知識を守るために)」を著したフランク・パスカル氏が、ロボットやAIといった最先端の技術を人類に有益に活用するための提言を行っています。 Pando: Why we must democratize AI to invest in human prosperity, with Frank Pasquale https://pando.com/2021/01/05/why-we-must-democratize-AI-invest-human-prosperity-with-Frank-Pa
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く