並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 75件

新着順 人気順

paperの検索結果1 - 40 件 / 75件

  • 謙虚なリーダーのもとで心理的安全性が高まりメンバーが本領発揮しやすくなる―職場においてリーダーの謙虚さと心理的安全性が果たす役割― | 東京大学 先端科学技術研究センター

    ホーム ニュース プレスリリース 謙虚なリーダーのもとで心理的安全性が高まりメンバーが本領発揮しやすくなる―職場においてリーダーの謙虚さと心理的安全性が果たす役割― 東京大学 発表のポイント 日本の企業において、リーダーの謙虚さが心理的安全性を介してプレゼンティーズムに影響することがわかりました。 チーム単位で働く職場において、リーダーの謙虚さ、心理的安全性、そしてプレゼンティーズムの3変数がどのように関係しているか初めて明らかにしました。 メンバーが活躍できる職場の人的環境や文化的条件を考え、介入をデザインする上で示唆に富む結果といえます。 謙虚なリーダーシップは、心理的安全性を介してプレゼンティーズムと関連する 発表概要 東京大学先端科学技術研究センターの松尾朗子特任助教、熊谷晋一郎准教授らの研究グループは、複数の業種の日本企業を対象に調査を実施し、リーダーの謙虚さが高まると心理的安全

      謙虚なリーダーのもとで心理的安全性が高まりメンバーが本領発揮しやすくなる―職場においてリーダーの謙虚さと心理的安全性が果たす役割― | 東京大学 先端科学技術研究センター
    • Webデザインで「紙っぽさ」を出す方法を考えてみる|akane

      こんにちは!株式会社Rabeeの新人デザイナーのakaneです🏋 今回は、Webデザインで「紙っぽさ」を出す方法を考えてみました。参考事例も掲載しながら紹介していくので、どうぞ最後までお楽しみください! はじめに:「紙っぽさ」とは?私が言う「紙っぽさ」とは、おもに「雑誌っぽさ」のことです。Webデザインだけど、雑誌っぽい。ディスプレイに映っているけれど、エディトリアル感がある。 たとえば、以下のようなデザインは私にとって「紙っぽい」例です。 出典:六本木未来会議出典:DMN出典:ぼくのおじさんどうして、私はこれらを雑誌のようだと感じるのでしょう?自分なりに考えたポイントを、ひとつずつ紹介していきます。 その①:文字が「組まれて」いる最初に挙げたWebサイトのひとつをよく見てみると、画像左上にある「NO. 153」の文字のうち、「NO.」だけが縦向きになっています。「NO.」と「153」を

        Webデザインで「紙っぽさ」を出す方法を考えてみる|akane
      • 水の硬度が牛肉,鶏肉およびじゃがいもの水煮に及ぼす影響

        牛肉,鶏肉,じゃがいもを硬度の異なる水で水煮して,煮汁のミネラル成分含有量,破断強度測定,組織構造の観察,官能評価を行い,水の硬度が煮込み料理に及ぼす影響を調べた。硬水で牛肉,鶏肉,じゃがいもを水煮したところ,水中のCa,Mgがこれらに吸着した。KとNaは,軟水より硬水で多く溶出した。破断強度値は,牛肉ではエビアンを用いて120分水煮したものが有意に小さく,じゃがいもは硬水ほど大きくなった。エビアンで水煮した牛肉は,筋内膜および筋周膜と,筋線維束の分離が顕著であった。じゃがいもは,硬水で水煮するとでん粉の糊化が抑制され,細胞同士が凝集した組織構造になった。エビアンで水煮すると,肉はやわらかくなり,じゃがいもは軟水より硬くなったことから煮崩れが防げると推測でき,肉や野菜も食する煮込み料理には,ある程度(硬度300程度)の硬度の水が適することが示された。

        • AIを使った論文の読み方

          近年の AI の進歩により、論文の読み方も大きく変化を遂げました。AI を活用することで以前と比べてはるかに簡単かつ早く論文が読めるようになりました。 以前私の個人ブログにて、論文の読み方やまとめ方を紹介しました。その時には要約ツールは用いていませんでしたが、最近はすっかり要約ツールを多用するようになりました。 本稿では、最新の AI を使った論文の読み方を丁寧に紹介します。 基本的な流れ 本稿でおすすめするのは ChatGPT か Claude で要約を生成して論文の概要をつかみ、Readable で精読するという方法です。ChatGPT や Claude では単に全体の要約を生成するだけでなく、肝となる箇所を特定したり理解するためにも用います。具体的な手順については後の項で解説します。 私が特定のテーマについて調査を行う場合には、テーマに関係する論文を被引用数の多いものを中心に 10

          • 審査のゆがみ:全日本吹奏楽コンクールを例に

            芸術競技において審査過程の公平性を確保することは重要な課題である.本論文では,審査結果に意図せざる形で偏りが存在しているか否か,存在するとしたらどの程度影響を与えているのか,という問いに対して全日本吹奏楽コンクールを事例として分析を行った.分析の結果,演奏順が後ろであればあるほど有利であるという “overall order bias” と,一つ前の演奏団体のパフォーマンスから影響を受ける “sequential order bias” が存在することが示された.

            • Othello is Solved

              The game of Othello is one of the world's most complex and popular games that has yet to be computationally solved. Othello has roughly ten octodecillion (10 to the 58th power) possible game records and ten octillion (10 to the 28th power) possible game position. The challenge of solving Othello, determining the outcome of a game with no mistake made by either player, has long been a grand challen

              • 「なぜ私たちはいつも締め切りに追われるのか」──東大松尾教授が2006年に出した論文が話題

                なぜ私たちはいつも締め切りに追われるのか──そんなタイトルの論文がX(元Twitter)上で話題になっている。筆者は、日本のAI研究の第一人者である東京大学の松尾豊教授。そんな松尾教授が産業技術総合研究所の研究員だった頃に書いた研究報告だ。 内容はタイトルにあるように、研究者がいつも締め切りに追われる理由を探るというもの。序論では「余裕をもって早くやらないといけないのは分かっている。毎回反省するのに、今回もまた締め切りぎりぎりになる。なぜできないのだろうか? われわれはあほなのだろうか?」と言及。研究者が創造的な仕事をするために、締め切りがいかに重要な要素になっているか解析するとしている。 研究者の精神的ゆとりの単位「ネルー値」 論文では、研究者の精神的ゆとりを表す単位「ネルー値」を提案。1ネルー=「今日、このまま寝てしまっても締め切りなどに影響がない状態」であり、「n日寝てしまっても締め

                  「なぜ私たちはいつも締め切りに追われるのか」──東大松尾教授が2006年に出した論文が話題
                • 「未来に来ちゃったか悪夢でも見てんのかと」声優・阿澄佳奈さん、現場で紙の台本を見ているのが自分一人と気づき驚愕

                  阿澄佳奈 @0812asumikana 声優です。舞台にも立ちます。 2016/8/12よりツイッター始めました。 お知らせ多めですし気まぐれにお休みしますが、どうぞ気まぐれに見に来てやってください。 ヘッダーの画像は #P3WM です。 ⭐︎不定期雑談スペース→ #あすみすすぺーすす ⭐︎随時近況報告ください→ #あすみさんに近況報告 阿澄佳奈 @0812asumikana データで台本をもらっていた現場で、私以外の全員が紙じゃなくタブレットで台本を見ているのに気づいてしまい驚愕しました…ページめくりのノイズが出るのは私だけ…私のめくりを待っていただく時間が発生する…ヒッ😨タブレット買います絶対買う、未来に来ちゃったか悪夢でもみてんのかと思ったヒェー 2023-12-01 20:40:59 阿澄佳奈 @0812asumikana アニメなど製本台本がある現場もありますが、ゲームやドラマ

                    「未来に来ちゃったか悪夢でも見てんのかと」声優・阿澄佳奈さん、現場で紙の台本を見ているのが自分一人と気づき驚愕
                  • 「コーヒーをいれる時は豆をひく前に水でぬらす方がいい」と研究で裏付けられる

                    コーヒー好きの人は自宅でおいしいコーヒーを入れるためにさまざまな創意工夫を編み出しており、中には「コーヒー豆をひく前にほんの少しぬらす」というテクニックもあります。アメリカ・オレゴン大学の研究チームが行った研究では、実際にコーヒー豆をぬらすとひいた時に発生する静電気が抑えられ、より効率的にコーヒーを抽出できることが示されました。 Moisture-controlled triboelectrification during coffee grinding: Matter https://www.cell.com/matter/fulltext/S2590-2385(23)00568-4 Grinding coffee with a splash of water reduces static electricity and makes more consistent and intense

                      「コーヒーをいれる時は豆をひく前に水でぬらす方がいい」と研究で裏付けられる
                    • 冷凍米飯の品質に及ぼす炊飯後の冷まし工程と冷凍保存条件の影響

                      調理における時間の短縮・簡略化の代表例として,米飯を冷凍保存し,電子レンジを用いて解凍する冷凍米飯が挙げられるが,アンケート調査により冷凍米飯の品質に不満を有している割合が高いことが報告されている。そこで本研究は炊飯後に米飯を冷ます工程に着目し,冷まし工程終了時と電子レンジ解凍後の含水率,物性値さらには食後の血糖値上昇度の指標となるeGI値を測定した。炊き立ての米飯の測定値を最も良い品質と仮定すると,冷まし工程を施さず,直ちに冷凍することで解凍後の含水率,かたさの全てにおいて炊き立ての数値と有意差がないことが分かった。また,冷まし工程を施す場合は冷まし工程時にラップで包装することで,炊き立ての品質に近い冷凍米飯を調製できることが示唆された。また,4種類の試料のeGI値は全て炊き立てと有意差がなかった。したがって,冷まし工程の有無に伴う米飯を摂取した際,食後の血糖値の上昇に影響を与えないこと

                      • 科学的発見が誇張→曲解→誤解→蔓延するメカニズムの図解と簡単で効果抜群の2つの対策|ふろむだ@分裂勘違い君劇場

                        科学的発見が私たちに届くまでの伝言ゲームで、さまざまな誇張・曲解・誤解が注入されています。 いったい、どうやったら、この伝言ゲームに勝ち、信用できる科学的発見と、地雷とを見分けることができるのでしょうか? 『Science Fictions』という本がその参考になります。 この本は、アメリカのamazonで306人に評価され、☆4.6という高評価。 世界最大の書評サイトgoodreadsでは1925人に評価され、☆4.39という高評価。 日本のamazonでは31人に評価され、☆4.0と、中程度の評価(翻訳は良い)です。 この記事では、この本を元に、以下の2つの視点から、この問題と、その解決策を検討します。 〔問題の把握〕 科学的発見の流通システムにおいて、いかにして、発見が誇張され、曲解され、誤解され、流通し、最終的に私たち一般人がそれを信じてしまうのか、その全体像を把握する。 〔解決策

                          科学的発見が誇張→曲解→誤解→蔓延するメカニズムの図解と簡単で効果抜群の2つの対策|ふろむだ@分裂勘違い君劇場
                        • クラシック・コンサートでの咳 通常時よりも2倍も多く しかもその多くがわざとしている 研究結果 - amass

                          研究結果によると、クラシックのコンサートでは、観客の咳が通常時よりも2倍も多く、しかもその多くがわざと咳をしているという。また咳の量は、演奏のゆっくりとした静かな瞬間や、馴染みのない曲や複雑な曲の時に増える傾向があり、また「コンサートでの咳は不思議な伝染性がある」とも報告しています。 ドイツのハノーファー大学のAndreas Wagener教授は、コンサートホールでの咳払いの程度と、その現象の背景にあるものを調査し、『なぜ人々はコンサートで咳をするのか?』と題した新しいレポートを発表しています。 教授は、コンサートでの咳の増加について完全な理論を持っているわけではないことを認めつつも、「コンサートでの咳は過剰であり、ランダムではないことを示す十分な証拠がある」と述べています。 レポートによると、平均的なコンサート参加者は1分間に0.025回咳をしており、これは1日平均36回咳をしていること

                            クラシック・コンサートでの咳 通常時よりも2倍も多く しかもその多くがわざとしている 研究結果 - amass
                          • 速報:話題の 1ビットLLMとは何か?|寺田英雄(㈱オープンストリームCTO)

                            2024-02-27にarXiv公開され,昨日(2024-02-28)あたりから日本のAI・LLM界隈でも大きな話題になっている、マイクロソフトの研究チームが発表した 1ビットLLMであるが、これは、かつてB-DCGAN(https://link.springer.com/chapter/10.1007/978-3-030-36708-4_5; arXiv:https://arxiv.org/abs/1803.10930 )という「1ビットGANのFPGA実装」を研究していた私としては非常に興味をそそられる内容なので、論文を読んでみた。今回は速報として、その内容のポイントを概説したい。 論文情報 Ma, S. et al. (2024) ‘The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits’, arXiv [c

                              速報:話題の 1ビットLLMとは何か?|寺田英雄(㈱オープンストリームCTO)
                            • 多言語話者になるための脳科学的条件――新たな言語の文法習得を司る脳部位を特定―― | 東京大学

                              2024年1月19日 国立大学法人 東京大学 マサチューセッツ工科大学 一般財団法人 言語交流研究所 発表のポイント 英語やスペイン語等の習得経験のある日本語母語話者が、新たにカザフ語の文に音声で触れた時、その文法習得を司る脳部位を特定しました。 この新たな言語習得を司る脳部位は、これまで母語や第2言語の文法処理に関わる「文法中枢」として研究チームが特定してきた「左下前頭回の背側部」と完全に一致しました。 多言語の習得効果が累積することで、より深い獲得を可能にするという仮説「言語獲得の累積増進モデル」が、脳科学によって明確に裏付けられました。 発表概要 東京大学大学院総合文化研究科の酒井邦嘉教授と梅島奎立助教は、マサチューセッツ工科大学言語哲学科のスザンヌ・フリン教授との共同研究において、新たな言語に触れた時に「誰が、何時、何を」習得したかを司る脳部位を初めて特定しました。この研究は、一般

                                多言語話者になるための脳科学的条件――新たな言語の文法習得を司る脳部位を特定―― | 東京大学
                              • ノア・スミス「Twitter 入り浸りは精神衛生に有害」(2024年3月9日)

                                ソーシャルメディア利用と精神衛生の悪化の相関を見出してる研究は山ほどある.でも,de Mello, Cheung, & Inzlicht によるこの研究こそが,ぼくにとっては真打ち登場って感じだ: 世間の論議では,よく,Twitter(現 X)がユーザーと社会に有害な影響を引き起こすと言われている.本稿では,合衆国の Twitter ユーザーたちの代表的標本から252人の参加者を得て調査を行うことで,この研究課題に取り組む.我々は,一日5回の質問を7日間にわたって継続した(6,218回の観察).調査結果から,Twitter 利用が幸福度の悪化および政治的二極化・怒り・帰属感覚の増加に関連していることが明らかになった.効果量は,社交的なやりとりが幸福度にもたらすものに近い.こうした影響は,人口統計上の特徴〔年齢や居住地域や就業状況など〕や性格特性を考慮しても一貫していた.データから推測される

                                  ノア・スミス「Twitter 入り浸りは精神衛生に有害」(2024年3月9日)
                                • 「Paper Interpreter」を使って論文を読もう!|Daichi Konno / 紺野 大地

                                  こんにちは、東京大学で医師かつ脳や人工知能の研究をしている紺野大地と申します。 2023年11月6日、OpenAI社から「自分専用のChatGPTを作れる機能」であるGPTs(ジーピーティーズ)が発表されました。 早速触ってみたところ、 「この技術を使えば、誰もが論文を読めるAIを作れる!」と確信し、論文解説AI「Paper Interpreter」を作って公開したところ、非常に大きな反響がありました! (こちらのリンクから、今すぐ使えます。) 論文の内容を分かりやすく解説してくれる「Paper Interpreter」を公開しました! 使い方は簡単で、論文のPDFをアップロードするだけです。 テキストだけでなく、図やグラフについても説明してくれる点がポイントです! 早速公開したので、ぜひ使ってみてください😊https://t.co/xHhKGO4WOZ pic.twitter.com/

                                    「Paper Interpreter」を使って論文を読もう!|Daichi Konno / 紺野 大地
                                  • エンジニアのためのSRE論文への招待 - SRE NEXT 2023 - ゆううきブログ

                                    この記事では、2023年9月29日に開催されたSRE NEXT 2023 IN TOKYOでの講演の概要に加えて、講演では触れられなかった部分の補足と、発表を終えての後記、最後にSRE NEXT全体の感想を書きました。 SRE NEXT 2020の基調講演に招いていただいたところから始まり、昨年のSRE NEXT 2022の公募セッションでも発表し、今回で3回目の発表になりました。今回の講演は、SRE NEXTの「NEXT」と価値観の一つである「Diversity」を踏まえて、自身のエンジニアと研究者の両方の経験を活かして、SREを深く実践する上で、技術論文を探して読むアプローチを提示するものです。昨今の国内のSREコミュニティでは組織的実践に主な関心が移っている状況と対比させて、コンピュータサイエンスに基づく技術的挑戦の可能性を示唆する意欲的な講演を目指したつもりです。 この講演での主要

                                      エンジニアのためのSRE論文への招待 - SRE NEXT 2023 - ゆううきブログ
                                    • なぜ人は自然が好きで自然に癒されるのか?に関する進化的な仮説を提案した論文の日本語解説|Fukano Yuya

                                      本記事は、 以下の論文の日本語解説です。 Fukano & Soga (2024). Greenery hypothesis: an evolutionary explanation for why presence/absence of green affects humans. People and Nature. https://besjournals.onlinelibrary.wiley.com/doi/full/10.1002/pan3.10619 自然に対する心理的反応に関する新しい仮説を提案した論文で、実験などで何かを実証したものではありません。また、本研究のように進化心理学的な研究は誤解を生みやすいトピックです。こういった背景から、プレスリリースなどではなく、論文全体を(機械翻訳など使いながら)解説しました。興味がある方は、とても長いですが頑張って読んでみてください。15

                                        なぜ人は自然が好きで自然に癒されるのか?に関する進化的な仮説を提案した論文の日本語解説|Fukano Yuya
                                      • 紙の出荷量ピーク時の半分に デジタル化など背景 業界再編も | NHK

                                        ペーパーレス化によって紙の需要の減少が続くなか、昨年度の国内出荷量が初めて1000万トンを下回り、2007年度のピークからおよそ半分にまで落ち込みました。製紙業界にとどまらず、オフィス向け機器を手がける業界でも事業再編や業界再編の動きがさらに加速することが予想されます。 業界団体の日本製紙連合会によりますと、ティッシュや印刷用紙、それに新聞などに使われる洋紙の昨年度の国内出荷量は948万トンで、前の年度から9%減少しました。 今の統計で比較が可能な1988年度以降で初めて1000万トンを下回り、2007年度のピークと比べると48%の減少と、およそ半分にまで落ち込んでいます。 背景にあるのは、ペーパーレス化やデジタル化の拡大で、製紙業界では、大王製紙と北越コーポレーションが原材料の調達や生産面での技術協力などで提携する検討を進めています。 オフィス向けの複合機などを手がける業界でも、富士フイ

                                          紙の出荷量ピーク時の半分に デジタル化など背景 業界再編も | NHK
                                        • 大規模言語モデルによる気象予報が、スパコンの予想を超える|Google研究所からの論文(12月22日 Science 掲載論文) - Lab BRAINS

                                          今年は大規模言語モデル(LLM)の様々な分野へ導入した論文がトップジャーナルに溢れるようになる元年と言えるかも知れない。一般の方ににとってLLMは、ChatGPTのようなテキストを学習させたモデルを指すのだと思うが、元々ノンリニアーな情報を扱う生物学では、早くから様々な目的でLLMの導入が進んでいる。最も普及しているのが蛋白質の構造予測もでるαフォールドだろう。 過去の経験は未来の予測に重要だが、これまでの予測はデータをなんとか法則に落とし込んで、その法則を未来に適用してきた。これに対しLLMでは、過去のデータを自然にコンテクスト化して、そこから最も確率の高い結果を導き出す。まさに生物情報に合致したモデルと言えるが、これと似ているのが気象現象だ。 本日紹介する論文 今日紹介するGoogleの2つの研究所からの論文は、3700万パラメーターを持つニューラルネットを用いて、地球規模で過去の気象

                                            大規模言語モデルによる気象予報が、スパコンの予想を超える|Google研究所からの論文(12月22日 Science 掲載論文) - Lab BRAINS
                                          • 【論文丁寧解説】BitNet b1.58とは一体何者なのか - Qiita

                                            はじめに この記事では、巷で「この技術によりGPUが不要になるかもしれない、NVIDIAなどの半導体関係の株価が...」と話題になっている、BitNet b1.58についての論文を丁寧に解説します。このMicrosoftが先日発表したBitNet b1.58はそのエネルギー効率の凄まじさから2024年初めの大きな技術改革となるかもしれません!! 筆者の見解 関する論文解説に入る前に、この技術に関する私の個人的な意見を述べたいと思います。 1bitの技術を用いることで達成されたその驚異的なエネルギー効率の高さは、既存の大規模言語モデル(LLM)とは一線を画しています。この技術が今後のAI技術の発展にどのように影響を与えるかについては以降の発表がとても楽しみです。 一方で、「GPUが不要になるかもしれない」という意見に関しては、ある程度の限定的な視点からの意見と言えます。BitNet b1.5

                                              【論文丁寧解説】BitNet b1.58とは一体何者なのか - Qiita
                                            • AIを活用して英語論文を作成する日本語話者にとっての課題とその対策

                                              本稿は,日頃英語で書く経験が乏しい日本語話者が,短期間で英語論文を執筆する方法について解説する。作業手順は,日本語による構想と原稿執筆→AIによる英語翻訳→AIによる文体改善→著者による最終校閲である。一貫している原則は,人間が,AIが不得意としている領域の作業に最善を尽くすことで,最終成果物の質を上げることである。作業の際の留意点は,ストーリー・文体・語法の3つの観点別に説明する。それぞれの強調点は,ストーリーでは戦略的な構想,文体では英語の発想に即した表現法,語法では日本語話者が不得意とする領域である。本稿は総じて,人間とAIが相互補完的に作業を進めることを推奨する。

                                              • これぞ革命!?ゼロから大規模言語モデルを学習できるReLORA登場(7/18追記あり)|shi3z

                                                導入 本当に革命的な技術なのか? 「君たちはどう生きるか」で驚いている間にすごい論文が世界の話題を掻っ攫っていた。 その名も「ReLORA」簡単に言えば、「事前学習にLoRAを使う」というものである。 これは本当に革命的な発見かもしれないので、僕の仮説も含めて丁寧に説明する。 まず、大前提として、「LoRA」という技術について LoRAは、「Low Rank Adaptation(日本語で言うとすれば低階適応)」という技術で、これまでは主にファインチューニングに使われてきた。 ファインチューニングとは、あらかじめ学習されたニューラルネットワークに対して追加で学習させ、概念を強調させたり新しく覚えさせたりする。 たとえば、僕の顔でStableDiffusionをファインチューニングすれば、僕みたいな顔の絵がどんどん出てくる。 言語モデルにおけるLoRAも同様で、新しい概念や「こういうやりとり

                                                  これぞ革命!?ゼロから大規模言語モデルを学習できるReLORA登場(7/18追記あり)|shi3z
                                                • 体育会系ハビトゥスにみる支配と順応

                                                  西洋スポーツが、暴力性を排除する形で発展してきたのに対し、なぜ日本の学校の体育部活動では、スポーツ選手は理不尽な体罰や暴力的支配を受容して、部活動に順応し続けるのだろうか。本稿の目的は、ブルデュ―の理論と方法を用いて、日本の体育会系ハビトゥスの特徴を、大学生への混合的手法による調査により明らかにすることである。得られた知見は、以下のとおりである。 自分を体育会系だとアイデンティティ自認する大学生は、全体の41.6%で学生の中の一つの大きなカテゴリーである。体育会系ハビトゥスの特徴は、性役割分業の肯定、勝利至上主義、権威主義への賛成傾向、伝統主義と地位の上昇志向である。 体育部活動経験者の多くが、指導者やシニアメンバーから体罰や過度の制裁をうけて、連帯責任で「理不尽な」経験をする。彼らは体育部活の1年目に「理不尽さ」を多く経験し、それを受容することで、権威に従属するハビトゥスを学習する。しか

                                                  • 人工知能研究の新潮流2 ~基盤モデル・生成AIのインパクト~|戦略提案・報告書|研究開発戦略センター(CRDS)

                                                    エグゼクティブサマリー 本報告書は、人工知能(AI)技術の研究開発における「第4世代AI」と「信頼されるAI」という二つの潮流を踏まえ、AI技術の社会的価値を高め、日本の国際競争力を強化するための研究開発の戦略提言と、それらに関連の深い研究開発領域の動向をまとめたものである。同様の位置付けの報告書「人工知能研究の新潮流~日本の勝ち筋~」を2年前(2021年6月)に公開したが、その後、基盤モデル・生成AIがブレークし、社会に大きなインパクトを与え、研究開発戦略・政策の検討も活発に行われている。そこで、今回、2年前の報告書をアップデートし、「人工知能研究の新潮流2~基盤モデル・生成AIのインパクト~」と題して公開することにした。本報告書は2部構成をとり、第1部では基盤モデル・生成AIのインパクトを踏まえた研究開発の二つの潮流と戦略提言の内容、第2部ではそれらと関連の深い研究開発領域の動向や国際

                                                      人工知能研究の新潮流2 ~基盤モデル・生成AIのインパクト~|戦略提案・報告書|研究開発戦略センター(CRDS)
                                                    • 株式100%の戦略が老後資金の新常識、債券との分散投資上回る-論文

                                                      過去2年にわたり損失続きの債券投資を巡り、老後の備えとして債券に依存することが果たして良い戦略なのかとの疑問が生じても無理はないだろう。 こうした疑問を裏付ける研究論文がこのほど明らかになった。 これはウォール街の反発を招くこと間違いなしの、コンセンサスから大きく外れた見解だ。論文では、将来への備えを蓄える上で最善の手法とされる株式6割・債券4割の「60/40」ポートフォリオという従来の投資アドバイスについて、30余りの国・地域を対象に130年にわたる期間について検証。その結果、国内株式と外国株式の半々で組み合わせて運用した方が、株と債券の分散ポートフォリオよりも運用成績が良いことが分かった。 論文の共同筆者の1人、アリゾナ大学のスコット・セダーバーグ氏は「株式投資家が耐えられる限り、債券に分散投資することで短期的な動きをならそうとする投資家よりも、非常に高い確率で一段と大きな利益を得るこ

                                                        株式100%の戦略が老後資金の新常識、債券との分散投資上回る-論文
                                                      • 米国は本当に第二次大戦の債務を成長で縮小したのか? - himaginary’s diary

                                                        というNBER論文をローレンス・ボールらが上げている(H/T タイラー・コーエン)。原題は「Did the U.S. Really Grow Out of Its World War II Debt?」で、著者はJulien Acalin(ジョンズ・ホプキンズ大)、Laurence M. Ball(同)。 以下はungated版の結論部。 This paper investigates the factors behind the behavior of the U.S. debt/GDP ratio since 1946, both the large decline in the ratio from 1946 to 1974 and the large increase since then. We seek to decompose the movements of debt/GD

                                                          米国は本当に第二次大戦の債務を成長で縮小したのか? - himaginary’s diary
                                                        • 反抑圧アプローチの視点から迫る軽度知的障害女性の性産業従事

                                                          軽度の知的障害がある女性たちの性産業従事に関するこれまでの言説の多くは、彼女たちを性搾取の被害者として捉えるものであった。本研究ではその捉え直しを行うべく、性産業従事経験と婦人保護施設の入所経験があり、かつ軽度の知的障害のある女性たち2名に聞き取り調査を行った。分析枠組みとして反抑圧アプローチ(AOP)における抑圧と抵抗の概念を用いた。結果、彼女たちにとって性産業従事は、周辺化・無力化されにくい場所であり、抑圧に対して抵抗することができる、主体的な行動を発揮しやすい場所であることが明らかになった。

                                                          • How Google Measures and Manages Tech Debt

                                                            Agree & Join LinkedIn By clicking Continue, you agree to LinkedIn’s User Agreement, Privacy Policy, and Cookie Policy. Sign in to view more content Create your free account or sign in to continue your search

                                                              How Google Measures and Manages Tech Debt
                                                            • 機械学習、NLP論文の書き方(英語)

                                                              はじめに Kotoba Technologies, Inc. Co-Founder/CTO、Toyota Technological Institute at Chicago, Research Assistant Professorの笠井淳吾です。これまで自然言語処理(NLP)、機械学習の国際学会(ACL、ICLR、NeurIPS、EMNLP、ICCVなど)にて、投稿や発表を積み重ねてきましたが、一度自分なりに論文を書く際に考えていること、留意点、コツのようなものを言語化して共有したいと思います。個人の好みによるところも多々あるかと思いますので、取捨選択していただいて、皆さんの論文執筆の一助になることを願っています。 全体のストラクチャー まずは全体の流れから考えていきます。基本的に、論文を書く際には(多くの場合そもそもプロジェクトを始める前に)、タイトルをイメージしていきます。タイトル

                                                                機械学習、NLP論文の書き方(英語)
                                                              • CSS for printing to paper

                                                                Table of contentsIntroductionSample files@page@media printWidth, height, margin, and paddingElement positioningMulti-page documents with repeating elementsPortrait / Landscape modeData sourceEssentials cheatsheet Introduction (§) At work, one of the things I do pretty often is write print generators in HTML to recreate and replace forms that the company has traditionally done handwritten on paper

                                                                • AIの画期的論文の共同執筆者ジョーンズ氏、グーグル日本法人退社へ

                                                                  人工知能(AI)分野でグーグルの最も影響力のある論文の一つを共同で執筆したAI研究者、リオン・ジョーンズ氏が、スタートアップを立ち上げるためグーグルを退社する。 AIに関する先駆的論文「Attention Is All You Need」(原題)の執筆に携わったジョーンズ氏は、グーグル日本法人を今月去ることをブルームバーグに確認した。休養を取った後、会社を設立する計画だという。 ジョーンズ氏はブルームバーグに寄せたメッセージで、「グーグルを去ることは容易な決断ではなかった。彼らと素晴らしい10年間を過ごしたが、何か違うことに挑戦する時が来た」とし、「AIの勢いと進化を踏まえると、何か新しいものを構築する良いタイミングのようにも感じられる」とした。 グーグルの広報担当者にコメントを求めたが、すぐに返答はなかった。 この論文が2017年に発表されると、シリコンバレーでセンセーションを巻き起こし

                                                                    AIの画期的論文の共同執筆者ジョーンズ氏、グーグル日本法人退社へ
                                                                  • ストレージとコンフィグでデータベースのグリッチを探す - Software Transactional Memo

                                                                    AIに描いてもらったストレージで作ったレース会場 はじめに この記事はデータベース・システム系 Advent Calendar 2023の一日目の投稿である。今年読んだ論文(今年書かれた論文とは限らない)の中で驚きや納得があって良かったなぁと思った論文をいくつか紹介していきたいと思う。 論文の本文そのものは機械翻訳なりチャットAIなりに叩き込めば誰でも内容の抽出はできるので、こちらのブログ内では何故これが良いと思ったかについて僕の主観に基づいて書いていく。僕の解釈が厳密に正しいことは一切保障しないし、気になって読んでみたら全然内容違うやんけ!と驚くところまでがセットくらいの気軽なつもりで読んで欲しい。 最初に紹介する論文は「When Database Meets New Storage Devices: Understanding and Exposing Performance Mism

                                                                      ストレージとコンフィグでデータベースのグリッチを探す - Software Transactional Memo
                                                                    • Retentive Network: A Successor to Transformer for Large Language Models

                                                                      In this work, we propose Retentive Network (RetNet) as a foundation architecture for large language models, simultaneously achieving training parallelism, low-cost inference, and good performance. We theoretically derive the connection between recurrence and attention. Then we propose the retention mechanism for sequence modeling, which supports three computation paradigms, i.e., parallel, recurre

                                                                      • キンキンに冷えたビールはなぜ美味しい?分子レベルで解明!

                                                                        キンキンに冷えたビールが美味しい理由は心理的なものではありませんでした。 中国科学院(CAS)で行われた研究により、冷やしたお酒が美味しく感じる理由を分子レベルで解明することに成功しました。 お酒は種類によりある程度のアルコール濃度が決まっており、好まれる温度も異なります。 新たな研究ではそれら理由を探るべく、ビール・日本酒・ワイン・ウイスキー・ブランデー・ウォッカ・白酒などのお酒を対象に、アルコール濃度と温度変化が「お酒の分子」に及ぼす影響を精密に測定し、味に関してもプロのテスターを採用して評価しました。 研究成果には、お酒の濃度をめぐる「歴史的」「経済的」な知見も含まれており、お酒好きには興味深い内容になっています。 研究内容の詳細は2024年5月1日に『Matter』にて「エタノールと水のクラスターがアルコール飲料の臨界濃度を決定する(Ethanol-water clusters d

                                                                          キンキンに冷えたビールはなぜ美味しい?分子レベルで解明!
                                                                        • 論文の生産性を上げるための環境づくり: 効果的なガジェット&ツール|genkAIjokyo|ChatGPTで論文作成と科研費申請

                                                                          私が使っている論文の生産性を向上させる(と勝手に思っている)環境構築ついて紹介したいと思います。私の生産性の大半はChatGPTから来ているため他はオマケ程度の可能性があります笑。あと私はケチなのでサブスクは極力最低限にするために有料サービスは価値があると判断したものしか使わない方針です。 本記事にはAmazonアソシエイトのリンクを含んでいます ガジェット類MacBook Pro(2画面出力できるモデル): 別にMacでなくてもよいのですがラップトップで4kの27インチモニターを2画面出力が可能なモデルが良いと思っています。(MacBookProでも4kを2画面出力できないものもあり注意が必要)2画面出力は、複数のタスクを同時に表示したり、情報を比較したりするのに便利です。例えば、一方の画面で論文を書き、もう一方の画面でChatGPTや参考にする論文を表示することができます。私は職場でも

                                                                            論文の生産性を上げるための環境づくり: 効果的なガジェット&ツール|genkAIjokyo|ChatGPTで論文作成と科研費申請
                                                                          • AST vs. Bytecode: Interpreters in the Age of Meta-Compilation

                                                                            233 AST vs. Bytecode: Interpreters in the Age of Meta-Compilation OCTAVE LAROSE, University of Kent, UK SOPHIE KALEBA, University of Kent, UK HUMPHREY BURCHELL, University of Kent, UK STEFAN MARR, University of Kent, UK Thanks to partial evaluation and meta-tracing, it became practical to build language implementations that reach state-of-the-art peak performance by implementing only an interprete

                                                                            • Japan’s push to make all research open access is taking shape

                                                                              Thank you for visiting nature.com. You are using a browser version with limited support for CSS. To obtain the best experience, we recommend you use a more up to date browser (or turn off compatibility mode in Internet Explorer). In the meantime, to ensure continued support, we are displaying the site without styles and JavaScript.

                                                                                Japan’s push to make all research open access is taking shape
                                                                              • キュビズムアートって意味不明だけど素人でも楽しめるの?の科学

                                                                                こないだ大規模なキュビズム展があったばかりですが、「キュビズムって何がいいの?」ってのを考えた論考(R)が出てたのでチェックしときましょう。アート系の話はだいたいアクセス数が低いんですが、そのへんは私の趣味と言うことで。 で、キュビズムってのは↑みたいな絵画のことで、ピカソやブラックが広めたことでおなじみですね。よく見れば 何が描いてあるかなんとなくわかるんだけど、 ぱっと見はランダムな図形の集合体に見えるというアレです。 これを良いと思うか悪いと思うかは人それぞれですけど、 キュビズムをほめる人の多くは、 キュビスムは、日常的な物体をあらゆる角度から同時に描くことで、我々に物体の新しい見方を提示したのだ! キュビスムは、 物体を根本的な要素まで還元することで、モダニズムや古典主義を乗り越え、 アートに新たな表現をもたらした! みたいな物言いをする人が多いはず。 これはこれで納得できるもの

                                                                                  キュビズムアートって意味不明だけど素人でも楽しめるの?の科学
                                                                                • Self-Rewarding Language Models

                                                                                  We posit that to achieve superhuman agents, future models require superhuman feedback in order to provide an adequate training signal. Current approaches commonly train reward models from human preferences, which may then be bottlenecked by human performance level, and secondly these separate frozen reward models cannot then learn to improve during LLM training. In this work, we study Self-Rewardi