You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
文章での指示にそった画像を生成してくれるAI「Stable Diffusion」には、セクシー描写などの成人向け表現を含む画像を黒塗りするセーフティフィルターが搭載されています。このセーフティフィルターを解除する方法が海外掲示板のRedditで共有されています。 Tutorial: How to Remove the Safety Filter in 5 seconds : StableDiffusion https://www.reddit.com/r/StableDiffusion/comments/wv2nw0/tutorial_how_to_remove_the_safety_filter_in_5/ Stable Diffusionは文章を入力すると文章にそった画像を生成してくれるAIで、2022年8月に一般公開されて以降大きな注目を集めています。Stable Diffusion
Stable Diffusion was made possible thanks to a collaboration with Stability AI and Runway and builds upon our previous work: High-Resolution Image Synthesis with Latent Diffusion Models Robin Rombach*, Andreas Blattmann*, Dominik Lorenz, Patrick Esser, Björn Ommer CVPR '22 Oral | GitHub | arXiv | Project page Stable Diffusion is a latent text-to-image diffusion model. Thanks to a generous compute
以下の記事が面白かったので、ざっくり翻訳しました。 ・lucidrains/DALLE-pytorch: Implementation / replication of DALL-E, OpenAI's Text to Image Transformer, in Pytorch 1. DALL-E in Pytorch 「DALL-E in Pytorch」は、OpenAIのText-to-Image Transformerである「DALL-E」(論文)のPyTorch実装/複製です。生成画像をランク付けするための「CLIP」も含まれます。 Eleuther AIのSid、Ben、Aranは、「DALL-E for Mesh Tensorflow」に取り組んでいます。 DALL-EがTPUで学習されるのを見たい場合は、彼らに手を貸してください。 2. 状態Hannuは、わずか2000枚の
1. 特徴量抽出とは 特徴量抽出(Feature Engineering)は機械学習の実応用において重要な工程です。 機械学習分野の大家であるAndrew Ng先生は次のように仰ったそうです(出典が見つからないので本当かは分かりません)。 "Coming up with feature is difficult, time-consuming, requires expert knowledge. 'Applied machine learning' is basically feature engineering." 実際に、Kaggleでも良い特徴量を見つけられるかどうかが順位を左右することがあるそうです。 しかしながら、特徴量抽出はアカデミックな研究対象ではないので、網羅的な解説が中々見つかりません。 そんな中で良い資料がありましたので、この内容を簡単にまとめます。 ただし、前半のカ
概要 Deep learningを生成モデルとして有名なものとしては以下の2つ Generative Adversarial network(GAN) Variational Auto-encoder(VAE) 今回はVAEについて説明を行う。 理論 VAEの目的関数の導出を行う。 定義と仮定 $x$ はデータを表す確率変数 潜在変数zで表現される $p(x)=\int p(x,z)dz$ $p(z|x)$は真の分布 $q(z|x)$は人間が導入した近似分布 対数をとっても最適化問題には影響しないので対数をとった$p(x)$を考える。 \begin{align*} \log p\left(x\right)&=\log p\left(x\right)\int q\left(z|x\right)dz\&=\int\log p\left(x\right)q\left(z|x\right)dz\&
前置き# 記事がはてぶ炎上して恥ずかしい思いをしたので、結構書き直しました。 この記事よりも良質な記事を参考記事に列挙したので、このページをブックマーク集だとして、他のページを参照していただければと思います。 はじめに# 機械学習を勉強するにあたって、 ベースとなる数学を勉強したいというモチベーションが高まってきた。なぜか?それは、今まで数学的な知識なしに勉強を進めていたのたけれども、論文が読めなかったり、少し数式で込み入ってくると、とたんにわけがわからなくなったからだ。 しかし、一番のモチベーションは、やっぱり機械学習を勉強するものとしての登竜門、PRML(パターン認識と機械学習)を読みたいというものがある。 参考記事# そこで、機械学習のために必要な数学を調べてみたのだが・・・どのサイトをみてもこれはというものがみつからないのだ。 2017年現在で、有益な記事をできるかぎり集めてみた。
自分と同じようなバックグラウンドで「機械学習周辺の数学まわりの勉強をしたい」という人の助けに少しでもなれればと思い、半年間の勉強の軌跡を公開することにした。 ● 前提 ・数学の勉強と言える勉強は高校数学で言う所の数II・Bまでしかやってこなかった。 ・数学が超得意だったかというとそういうわけではなく、まあ普通なライン。 ・大学は情報系で文理一緒だけど、正直大学数学らしい数学はあまりやってこなかった。 ・社会人になって以来ずっと数学コンプレックスで「大学の時もっと理系の勉強をしておけばよかった」と後悔する日々だった。 ・「とにかくツールとか沢山触りまくって慣れた方が良い」という意見も沢山頂いていたのだけど、 – やはり専門の文献を読むとブワーッと数式が出て来て「うっ」となる自分が情けなく感じる経験をした – このまま勉強しないで年をとった後に「あの時やっておけば」という後悔はしたくなかった
ディープラーニングは色々な知識が必要です。 「チュートリアル動かしました」で止まったままの人も多いでしょう。 そこで、自分がchainerを理解しながら動かした時の方法を書きます。 大前提 とは言ったものの、誰でも入門は無理なので。 以下が最低限の前提です。 数学:微分積分、行列、確率とか聞いても「ああ、あれね・・・」くらいには思う IT:Pythonがそれなりに分かる。numpyはそこそこ分かる。 機械学習:説明変数とか、目的変数とか分類とかが何となく分かる やる気:引っかかった時に、調べる気力がある ゴール chainerを自分で色々試せるレベルになる。 あくまで試せるレベルになるだけです。 それでも千里の道も一歩からです。 一緒に頑張りましょう。 ちなみになぜchainerか、というと、 入門者が触るには、バランスは良さそうに見えたからです。 最初の最初 ディープラーニングは歴史から
はじめに s0sem0y.hatenablog.com この記事で数学に関して勉強したいという場合に参考になる本を紹介したいと思います。 しかし個人的には数学の本を一冊ガッツリやって機械学習に移るというよりは、機械学習を学びながら必要な数学は調べていけばいいかなと思っています。もちろん数学を一通りやっていたほうが勉強は楽であるのは間違いありませんが、数学を今からやらなければならないというのは結構な重労働です。数学の様々な知識や公式は、今の時代ならばネットでも十分見つかりますから、適宜調べるというスタイルで構わないと思いますが、具体的な書籍があると頼もしいという場合の参考にしてください。 当然これから紹介する書籍の中身を完全に把握しておく必要はありません。 ただ、個人的には数学も単純に面白いと思います。(純粋数学は知りませんが) はじめに 線形代数 教科書 微分積分・ベクトル解析 文庫本、微
前回機械学習を学ぶなら数学が必要だという話をしました。 s0sem0y.hatenablog.com それと同時に、数学を極めてから機械学習をやるのではなく、機械学習をやりながら必要に応じて数学を学んでいくというスタイルをオススメしました。しかし、今から機械学習を学んでいこうという人にとって、機械学習の数式がわからないとき、果たしてどの数学を学べば改善が見込めるのかを判断するのは難しい問題かと思います。 そこで機械学習に現れる数式を実際に取り上げ、ケースごとにどの数学分野を補強すべきかの指針をまとめてみたいと思います。また、少しの定性的な理解を深める解説も載せておきます。今後のヒントになれば嬉しいです。 パーセプトロンでのケース 全て同じ意味、式変形が分からない人へ 入力ベクトルに対して、 という数式が現れます。この数式を大抵の本は以下のように変形します。 最初の式と、この式が全く同じ計算
※この記事の1年後に文系エンジニアがCourseraの機械学習コースを1ヶ月で修了したので振り返ってみました。という記事もアップしました。 文系エンジニアが機械学習に入門しようと思うと、どうしても「数学の壁」にぶつかります。 一般的に、機械学習を理解するためには、大学レベルの「微分積分」「線形代数」「確率統計」の知識が必須とされていますが、私のような典型的文系エンジニアの場合、それを学習するための基本的知識自体が圧倒的に不足しているため、まずは高校までの数学を一からやり直してみました。 学習前の私の数学スペック 学生時代の数学の学習歴は高校2年生の2学期位まで。 大学で経済数学の授業があった気がするがほとんど出席していない。 仕事で使った数学知識は三角関数程度。(画像処理ソフトを開発した際に使用) 学習に要した時間 小学校の算数 5時間 中学数学 6時間 数I/数A 12時間 数II/数B
ニューラルネットワークと深層学習 What this book is about On the exercises and problems ニューラルネットワークを用いた手書き文字認識 逆伝播の仕組み ニューラルネットワークの学習の改善 ニューラルネットワークが任意の関数を表現できることの視覚的証明 ニューラルネットワークを訓練するのはなぜ難しいのか 深層学習 Appendix: 知性のある シンプルな アルゴリズムはあるか? Acknowledgements Frequently Asked Questions Sponsors Resources 「ニューラルネットワークと深層学習」は無料のオンライン書籍です。 この本では、次のような内容を扱います。 ニューラルネットワーク:コンピュータに、観測データにもとづいて学習する能力を与える、生物学にヒントを得たプログラミングパラダイム。 深
ディープラーニングの本格的な入門書。外部のライブラリに頼らずに、Python 3によってゼロからディープラーニングを作ることで、ディープラーニングの原理を楽しく学びます。ディープラーニングやニューラルネットワークの基礎だけでなく、誤差逆伝播法や畳み込みニューラルネットワークなども実装レベルで理解できます。ハイパーパラメータの決め方や重みの初期値といった実践的なテクニック、Batch NormalizationやDropout、Adamといった最近のトレンド、自動運転や画像生成、強化学習などの応用例、さらには、なぜディープラーニングは優れているのか? なぜ層を深くすると認識精度がよくなるのか? といった“Why”に関する問題も取り上げます。 関連ファイル サンプルコード 正誤表 ここで紹介する正誤表には、書籍発行後に気づいた誤植や更新された情報を掲載しています。以下のリストに記載の年月は、正
やる夫で学ぶ機械学習シリーズの第 2 回です。回帰について見ていきます。 第 1 回はこちら。やる夫で学ぶ機械学習 - 序章 - 目次はこちら。やる夫で学ぶ機械学習シリーズ 問題設定 やらない夫 今日は回帰について詳しく見ていく。 やる夫 回帰って響きがカッコいいお。 やらない夫 ここからは、より具体的な例を混じえながら話を進めていこう。 やる夫 具体例は、やる夫の明日のお昼ごはんぐらい大事だお。 やらない夫 まったく意味がわからないたとえなんだが…。そうだな、たとえば、主人公の攻撃力によって、敵キャラに与えるダメージが決まるゲームがあるとしよう。 やる夫 よくある設定だお。 やらない夫 ダメージには揺らぎがあって、常に同じダメージを与えられるとは限らない。さて、実際に何度か敵キャラに攻撃してみて、その時の攻撃力と与えたダメージをグラフにプロットしてみると、こんな風になっていたとしよう。
やる夫で学ぶ機械学習を書いてみました。 やる夫で学ぶ機械学習シリーズの第 1 回です。記事がとても長くなったので、分割してます。 目次はこちら。やる夫で学ぶ機械学習シリーズ 機械学習 やる夫 機械学習やってみたいけど、そもそもどうすりゃいいかまったくわからんお。Wikipedia を見たけど、何を言ってるのかさっぱりだお… やらない夫 お前、Wikipedia でわかるわけがないだろ、常識的に考えて… やる夫 そうなのかお…。しかも、やたら数式が出てきて、日本語でおkって言いたくなるお。 やらない夫 確かに数式は出てくるが、そもそも数式というのは日本語で言うと長ったらしくなるものを誰にでもわかるように厳密で簡潔に表してるものなんだぞ。というか、やる夫は機械学習で何がしたいんだ? やる夫 えっ…、あーえーっと、ほら、アレだお…なんか、こう、パーッと、いい感じの… やらない夫 お前、ただ機械学
0 はじめに 言語処理100本ノックは、東北大学の乾・岡崎研究室で公開されている、実践的な課題に取り組みながら,プログラミング,データ分析,研究のスキルを楽しく習得することを目指した問題集です。 これまでに、「第4章 形態素解析」、「第5章 係り受け解析」、「第8章 機械学習」を解いてきました。 引き続き「第9章 ベクトル空間法 (I)」を進めていきます。 0.1 この章でやること enwiki-20150112-400-r10-105752.txt.bz2は,2015年1月12日時点の英語のWikipedia記事のうち,約400語以上で構成される記事の中から,ランダムに1/10サンプリングした105,752記事のテキストをbzip2形式で圧縮したものである.このテキストをコーパスとして,単語の意味を表すベクトル(分散表現)を学習したい.第9章の前半では,コーパスから作成した単語文脈共起行
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く