類似性と「みにくいアヒルの子の定理」 小野山 敬一 1.はじめに 類似性 similarity は対象間の関係を見るひとつの方法であり,しばしば分類における基準となるもので,それによって事物のグルーピングが行なわれたりするものである.一方,「みにくいアヒルの子の定理」(the theorem of the ugly duckling)は,形質を同等に評価した場合には類似性にもとづく分類がありえないこと,したがって客観的な分類がありえないことを示すものと解釈されている. 「みにくいアヒルの子の定理」はWatanabeが1961年にAAAS annual meetingで言及し,1962年ブラッセルでの講演で厳密な証明を与えた.後者はWatanabe (1965) に収録されている.その後,渡辺自身は,Watanabe (1969) や渡辺(1978,1986)で取り上げているが,他の著者が言
このサイトは学部では早稲田で物理を, 修士では東大で数学を専攻し, 今も非アカデミックの立場で数学や物理と向き合っている一市民の奮闘の記録です. 運営者情報および運営理念についてはこちらをご覧ください. 理系のための総合語学・リベラルアーツの視点から数学・物理・プログラミング・語学 (特に英語) の情報を発信しています. コンテンツアーカイブに見やすくまとめているのでぜひご覧ください. とりあえずは結論から. 【結論】圏論は具体的過ぎてクソ、formal category theoryをやろう👊 — リロード・オン・アルゴドゥー (@alg_d) 2016年4月22日 何を言っているのか全く理解できていないが, とりあえず未来の自分のためにまとめておく. 圏論の基礎でとある命題を読んだぼく「なるほど」 その証明を読んだぼく「わからん」 Kan拡張を使って自力で証明したぼく「自明」 — リ
なにかあったらすぐtwitterに書いてしまうのであまり更新しません [an error occurred while processing this directive] 「全ての概念はKan拡張である」この言葉はそれなりに有名になったと思いますが、これがどういう意味なのか、私なりの見解をここに書いておきたいと思います。 まず「すべての概念はカン拡張である(all concepts are Kan extensions)」というのは圏論の教科書『圏論の基礎(Categories for the Working Mathematician)』(以下、この本をCWMと呼ぶ)に書いてある言葉です。CWMの前書き(初版への序)には以下のように書いてあります。 圏論の基本概念が終わりの二章にまとめられている.たとえば極限の,より差し迫って必要となる性質,特にフィルター極限の性質,「エンド」の計算,
めいろまのツイートがホッテントリに入っているけど、自分にはよく分かる。 https://b.hatena.ne.jp/entry/s/twitter.com/May_Roma/status/1246816874911936522 左翼とは何か、右翼とは何かという定義にはいろいろある。 一つの見方として、左翼は世界を上下に分けて下の弱者の味方をする一方、右翼は世界を内と外に分けて内側の味方をする、というものがある。 いろいろな左翼と右翼を見る限り、この見方には一定の妥当性があると思う。 左翼は弱者に寄り添えるのだから絶対に正しいと考える人もいるのだけど、問題もある。 世界を上下に分けたときに強者と判定した人に徹底的に冷たくなる傾向にある。 例えば先進国の隣人よりも、発展途上国の人を救うことに一生懸命になったりする。 また、女性は虐げられた弱者だから女性に優しいのはよいとして、強者の属性を持っ
はじめに ニューラルネットワーク 損失関数を考えるモチベーション 分類の損失関数 0−1損失関数 分類における損失関数の基本 0-1損失の問題点と代理損失 色々な損失関数 分類の損失を考える上で重要な「正解と出力の積」 ロジスティック損失 指数損失 ヒンジ損失 平滑化ヒンジ損失 損失関数の図示 0-1損失で図の見方を確認 ロジスティック損失 指数損失 ヒンジ損失 平滑化ヒンジ損失 比較 最後に モデルの方の話 実際に使う場合の話 学習の評価は「正解・不正解」だけでない 回帰における損失関数 はじめに 機械学習における教師あり学習では、入力に対してパラメータを用いて関数を構築し、正解データに対して損失を定義し、これを最小化する手続きを取ります。 損失を、色々なとの組に対して計算し、その総和が最小化されるようにを決めることを学習と呼びます。これにより未知のデータを入力した時に、それに対する正解
「サイコロの目で1が出る確率は1/6」は正しくない。そういう風に数学的に抽象化あるいはモデル化しているだけ。実際、精緻な物理シミュレーションが可能であればもっと正確に出目を予測できる可能性がある。すべてのモデルは間違っており、「正しい確率」というのはそもそも意味を成さない。
おはようございますまたはこんにちはまたはこんばんは,カイヤンです. 就活エントリーが有名な方に捕捉されたりものすごくバズったりと過分な評価をいただいており,とても驚いているこの頃です. 私や私のドクトリンが評価されているのではなく,記事から就活最前線の様子を推測しやすいからこれだけ評価をいただいているに過ぎないと肝に銘じて思い上がらぬよう過ごしたいです *1. さて,今回はPeingに届いた質問に関して短く書いてみようと思います. ベイズ推定における逆温度パラメータって具体的に何を制御しているものですか?(最尤法とのつながりなどでよく出てきま | Peing -質問箱- という質問をいただきました. 質問箱では簡単に答えていますが,もう少し語らせてください. 筆者質問箱の回答 「対数尤度+正則化項」という損失を考えると結局正則化の効果度(逆温度が大きいほど弱い正則化,無限大への極限で最尤法
ベイズ推論 東京工業大学 渡辺澄夫 2016/9/15 1 電子情報通信学会ソサイエティ大会 AI-2 データ科学とコンピュータ科学の基礎理論と展開 2016年9月20日北海道大学 この講演の目的 2 2 統計的推論が命題論理の推論と異なる点を説明し、 ベイズ推論において解明されていることの概略を述べる。 もくじ 3 3 1.統計的推論は命題論理の推論と何が違うのか 2.統計的推論では何を知りたいのか 3.予測誤差と交差検証誤差 4.総和誤差と自由エネルギー 4 4 1.統計的推論は命題論理の推論と何が本質的に違うのか なぜ人間は「正しい統計的推論」を求めたのか 5 数学や物理学では一定の水準の厳密さにおいて 「正しい推論」というものが存在している。 → 正しいモデルで正しく推論すれば正しい結論が得られる。 → 間違った結論は間違ったモデルか推論から生まれる。 (例) 連続関数の列が一様収
こんにちは。林岳彦です。エ・レ・ファ・ン・ト・カ・シ・マ・シ(←滝川クリステル風に声に出して読みたい日本語)。 さて。 今回は8月6日に迫った日本生態学会関東地区会シンポジウム(a.k.a 因果フェス)についてのプレビューを書いてみたいと思います。 今回のシンポにおける問いを一言で言うと:「系列Aと系列Bはいかなる関係か?(*但し共変量および背景に関する情報は無いものとする*)」 統計的因果推論というと「介入効果/措置効果の推定」のことを思い浮かべる方も多いのかもしれませんが、そのテーマは昨年に扱いました。 で、今年については本質的には以下の問いが中心になると言えるのかなと思います: 「系列Aと系列Bはいかなる関係かについて答えよ(*但し共変量および背景に関する情報は無いものとする*)」 はい。 これはシンプルではありますが非常に奥の深い問いです。 今回のシンポでは、この問いに対する4つの
もどる 1.概略 サンプルと学習モデルが与えられたとき、真の確率分布(サンプルを発生している分布)を推測する ことを統計的学習といいます。 推測された確率分布を用いて未知のデータを予言したときの 誤差が予測誤差であり、推測された確率分布を用いて既知のサンプルを予言したときの誤差が 学習誤差です。 予測誤差を小さくすることが学習の本当の目的ですが、予測誤差は真の確率分布がわからなければ 計算できません。学習誤差はサンプルだけから計算できますが、予測誤差とは一致しません。 もしも学習誤差から予測誤差を推測できれば、サンプルだけから未知のデータに対する予言の良さが わかるので、非常にありがたいということができます。しかしながら、予測誤差の平均値を知ることは、 統計的正則モデルでは実現されていましたが、統計的に正則ではないモデルでは 実現する方法がありませんでした。統計的に正則でないモデルはパラメ
ベイズ統計の理論と方法 渡辺澄夫 ベイズ統計の理論と方法、コロナ社、2012 , アマゾンのページ この本ではベイズ統計の理論と方法を紹介しています。 ベイズ統計については良い本がたくさん出版されていますので、他の本と 合わせてお読み頂ければ幸いです。 初めてベイズ統計に出あった人はもちろん、これまでにベイズ統計について勉強を されていて、多くの疑問を持たれているかたに本書をお薦めします。 特に、ベイズ統計について『いろいろな本に○○○と書いてあるが、これは 本当のところ正しいのだろうか』と思われていることが沢山あるかたに本書を お勧めします。例えば、 Q1.なぜ事前分布を信じることができるのだろうか? Q2.ベイズ法は数理や理論に支えられていないのだろうか? 『百人いれば百個の推論』でよいのだろうか? Q3.私は BIC や DIC でモデルを設計して来たが、それで本当によかったのだろう
ベイズ事後分布の 相転移について 渡辺澄夫 東京工業大学 相転移とは何ですか 学生のみなさまから「学習理論における相転移とは具体的に何か」という質問を いただきましたので、具体的な例について紹介します。 相転移とは データの数 n やハイパーパラメータ α を変化させたとき、ある値を境界として その前後で事後分布が急激に形を変えることにより、ベイズ自由エネルギーや 汎化損失の値がそれらのなめらかな関数でなくなることがあります。そのような 変化を相転移と呼びます。 具体例として、ここでは次の問題を考えます。 (1) データの数 n が小さいうちは真の分布の構造を詳しく知ることはできないが データの数が増えるにつれて真の分布の構造が見えてくる(構造の発見)。 (2) 事前分布を決めているハイパーパラメータを変えると事後分布が急激に 変化する点がある (「事前分布は何でもよい」ではないのです)。
最近、スキームの話をきっかけに、tsujimotterのノートブックにも「層」という概念が登場するようになりました。 ところが、これまでのブログ記事では、層の定義は頑なに避けられてきました。その理由は、私自身が理解できていなかったからです。 今回は、いよいよ層の定義をしてみたいと思います。今日のポイントは、具体例の計算です。具体例を通して、層の理解を目指しましょう。 目次: 前層(復習) 前層の例 層の定義(2つの公理) 例1:共通部分を持たない開被覆 公理1:既約性条件 公理2:閉条件 例1のまとめ 例2:共通部分を持つ開被覆 公理1:既約性条件 公理2:閉条件 例2 まとめ 完全列を用いた層の定義の言い換え まとめ 補足1:U = ∅ の場合 補足2:解析接続と閉条件 参考文献 前層(復習) 層は、後で述べる「ある特別な性質」を持った前層です。まずは前層の定義を丁寧に復習しましょう。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く