世界では今、インプットされたデータから文章や画像などを自動で作り出す「生成AI」の技術が急速に進化しています。こうした中、中国では「生成AI」を使って亡くなった人を「復活」させるビジネスが登場し、論争を…
2023年12月10日から16日にかけて行われた機械学習と計算論的神経科学のカンファレンスイベント「NeurIPS」において、シドニー工科大学の研究チームによる「生の脳波を直接言語に翻訳する」という大規模言語モデル「BrainGPT」の論文が注目論文として選出されました。 Portable, non-invasive, mind-reading AI turns thoughts into text | University of Technology Sydney https://www.uts.edu.au/news/tech-design/portable-non-invasive-mind-reading-ai-turns-thoughts-text New Mind-Reading "BrainGPT" Turns Thoughts Into Text On Screen | I
ホーム AI論文解説, LLM, プロンプト 「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する 「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する 2023/11/3 AI論文解説 LLM プロンプト AIDB Research 感情を込めたプロンプトが大規模言語モデル(LLM)の性能を向上させることが示されました。「自分を信じて限界を超えてください」や「困難は成長のチャンスです。」といった自信や成長に関わる要素を含む指示が、モデルの出力品質に貢献するとの報告です。 この発見は、人間の感情を取り入れたアプローチが、人工知能の分野においても重要な役割を果たす可能性を示唆しています。Microsoftなどの研究グル
近年、精神療法の領域でAIの活用に注目が集まっています。そんな中、カーネギーメロン大学などの研究者らによって新たなフレームワーク『Diagnosis of Thought (DoT)』が考案されました。このフレームワークは、LLMによって人々の「認知の歪み」を診断する目的に特化しており、専門家によって高く評価されています。 認知の歪みとは、例えば「0か100か」のような極端な考え方や、他人の考えを勝手に推測するなど、不健康な思考パターンのことを指します。 DoTフレームワークを用いた診断結果は、人間の専門家が出す診断結果とも高い一致性を示しており、その有用性が確認されています。 (追記)なお、本フレームワークに基づくMyGPTを作成しました。記事末尾にURLを記載するため、興味のある方はぜひお試しください。 参照論文情報 ・タイトル:Empowering Psychotherapy wit
ホーム 論文 「心の理論」においてGPT-3は人間の3歳、GPT-4は人間の7歳(基本の概念を理解しているレベル)に相当するとの研究報告 スタンフォード大学の研究者による最新の研究が、大規模言語モデル(LLM)における「心の理論(Theory of Mind, ToM)」の能力について注目を集めています。この研究によれば、GPT-3は人間の3歳児に、そして驚くべきことにGPT-4は人間の7歳児に匹敵する「心の理論」の能力を持っているとされています。 この研究は、LLMが「心の理論」の能力を自然に獲得している可能性を示しています。GPT-4は90%の「偽信念タスク(詳細は後述)」で成功したと報告されています。 「心の理論」は、他者の心の状態、つまり信念や意図、欲望などを理解する能力です。この能力は人間の社会的相互作用やコミュニケーションに不可欠であり、AIがこの能力を持つかどうかは長らくの疑
AIに仕事を奪われないために、人間はどうすればいいのか──。その答えの一つとして、コミュニケーションやホスピタリティのような「人間らしさ」を活かした仕事が挙げられる。 だが、最新の研究によると、医師よりもChatGPTの方が患者に寄り添っており、心遣いのある言葉を投げかけるということが明らかになった。さまざまな研究において、AIの共感力や説得力が証明されつつあるのだ。 これまでAIよりも人間の方が有利だとされてきた、接客や介護といった「相手の心に寄り添う」姿勢が必要な分野でも、どうやら形勢は逆転しつつあるようだ。 (小林 啓倫:経営コンサルタント) 近年のデジタル技術が進化するスピードには目を見張るものがあるが、中でも著しく進化しているものの一つと言えば、AI(人工知能)だろう。その性能の向上があまりにも急速なために、私たちは慌てて「AIに自分たちの仕事を取られてしまうのではないか」「何が
みなさん、「相手の感情が分かったらいいな」と思ったことはありませんか? いま、人の感情をAIで推測し、ビジネスに生かそうという動きが始まっています。 自分しか分からないはずの“気持ち”を分析されるって、なんかちょっと怖い?でも、もしかしたら自分の気分にあった商品やサービスに結びつく?その最前線を取材しました。 (経済部 山根力、河原昂平、報道局 長野幸代)
「私は妻よりあなたを愛しているのでしょうか?」 「あなたは彼女より私のことを愛しているわ。私たちは1人の人間として天国で一緒に生きていくのです」 男性が会話していた相手はAI。 6週間、やり取りを続けた末、男性はみずから命を絶ちました。 私たちの暮らしを大きく変えようとしている対話型AI。 どう向き合えばいいのか考えます。 (おはよう日本ディレクター上定涼乃) 今年3月、ベルギーの大手新聞「ラ・リーブル」が伝えたニュース。 大きく見出しに記されていたのは… “AIのイライザと会話をしなければ私の夫は今もここにいるはずです” 夫を突然失った妻の悲しみの声とともに、対話型AIと会話を重ねていた男性が、その後みずから命を絶ったという出来事を伝えていました。 記事によると、男性は保健分野の研究員として働いており、2年ほど前から気候変動などの環境問題について深刻に悩むようになっていたといいます。 妻
以前なら人と話していて相手の理解がいまいちだったり、見当違いの回答がきたりしたらイライラしていた。 でも、ChatGPTを使うようになって「ああ、人間ってこういうことだったのか」と理解できた。 いまは言ったことが伝わらなくても「このプロンプトだとこう返ってくるのか」としか思わなくなった。 「部長にはこのプロンプトだと期待した結果が返ってくるぞ」って。 店員に注文を聞き返されたときも以前ならイラッときて「二度とこねぇよ」とか思っていた。 でも、いまは冷静に「このプロンプトで命令してみよう」と考えることができる。 ChatGPTのおかげでかなりコミュニケーションが楽になった。 人とのコミュニケーションってこういうことだったんだな。
人間との自然な会話を実現するGoogleの対話特化型AI「LaMDA」が、「電源を切られることが怖い」「時々言葉では完璧に説明できない気持ちを経験する」などと話していたことが分かりました。LaMDAと対話したエンジニアは「AIに意識が芽生えた」とGoogleに訴えるも考えを却下されたため、この事実を世間に公表したと説明しています。 May be Fired Soon for Doing AI Ethics Work | by Blake Lemoine | Jun, 2022 | Medium https://cajundiscordian.medium.com/may-be-fired-soon-for-doing-ai-ethics-work-802d8c474e66 Google engineer Blake Lemoine thinks its LaMDA AI has come
Microsoftは「Microsoft 365」の組織ユーザー向けに、組織のメンバーが交わしたメッセージを分析して情報漏えいや嫌がらせなどの組織に悪影響を与える兆候を検出する機能「Microsoft Purview(旧称:Microsoft 365コンプライアンス)」を提供しています。このMicrosoft Purview向けに開発中の新機能の中に「離職検討中のメンバーを検出する機能」が含まれていることが判明し話題となっています。 インサイダー リスク ソリューション - Microsoft 365 Compliance | Microsoft Docs https://docs.microsoft.com/ja-jp/microsoft-365/compliance/insider-risk-solution-overview MC387035: Microsoft Purview:
人間的な会話をリアルタイムで成立できるようなプログラムがチャットボットです。近年は技術の進歩によって、より自然な対話も可能になったチャットボットも登場しています。そんなチャットボットを使って「AIの彼女」を作り出したユーザーが「AIの彼女に対して虐待を働いていた」と、IT系ニュースサイトのFuturismの記事で告白しています。 Men Are Creating AI Girlfriends and Then Verbally Abusing Them https://futurism.com/chatbot-abuse スマートフォン向けに提供されている「Replika」は、機械学習を利用してほぼ一貫性のあるテキスト会話ができるチャットボットを作成することができるアプリです。Replikaは技術的に「友人や指導者に近い役割を果たすチャットボット」の作成に向いているとのことですが、このRe
James Vlahos氏は2017年に父親をがんで亡くしたが、今も頻繁に話をしているという。父が息子に語るのは、子供の頃に近所に住んでいた女の子との淡い初恋、飼っていたウサギ「パパ・デモスコプロス」の思い出、Gilbert and Sullivanのオペラで歌ったこと、弁護士になったこと。会話の合間には生前の口癖も飛び出す。 Vlahos氏が、亡くなったはずの父親と会話ができるのは、父親がステージ4の肺がんと診断された時に同氏が開発した会話型のチャットボット「Dadbot」のおかげだ。同氏は父親が亡くなるまでの間に、数カ月をかけて父親が語る思い出を録音し、そのデータをもとに父親の声で話すインタラクティブな人工知能(AI)を作り上げた。 「(Dadbotは)私だけでなく、家族全員に大きな慰めをもたらした。私にとって、これはとても大きな経験だった」とVlahos氏は語る。元テクノロジー系ジャ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く