並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 1128件

新着順 人気順

"Stable Diffusion"の検索結果1 - 40 件 / 1128件

  • やばすぎるAI画像生成サービス「Stable Diffusion」始まる。 【簡単解説 & 応用 & Prompt付生成事例集】|やまかず

    一応、StableDiffusionとははっきりまず言います…とにかくやばいです。 分かりやすく、他のDALL・E2、Midjourney、Disco Diffusion、他有象無象Text to image machine learning系サービスと比較しますと… クオリティがかなり高い。 制限がなくなり、かなり細かい調整ができるようになったDALL・E2のような感じです。 生成が早い。 設定なしで使えば正直体感DALLE2より早いです。6秒..くらい? 安い。 3円くらいだと思います。 DALL・E2は1生成17円。Midjourneyは月4000円。 オープンソース これからいろんなサービスにこのAIが搭載されます。 他AIではかけられている学習データのフィルターがない。 各国の代表者や、有名人、ポルノがデータに含まれています。 PC上で使用できる。( = その場合無料) いや、こ

      やばすぎるAI画像生成サービス「Stable Diffusion」始まる。 【簡単解説 & 応用 & Prompt付生成事例集】|やまかず
    • Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】

      ホーム ブログ 人工知能(AI)、ビッグデータ法務 Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権|知… はじめに Midjourney、Stable Diffusion、mimicなど、コンテンツ(画像)自動生成AIに関する話題で持ちきりですね。それぞれのサービスの内容については今更言うまでもないのですがMidjourney、Stable Diffusionは「文章(呪文)を入力するとAIが自動で画像を生成してくれる画像自動生成AI」、mimicは「特定の描き手のイラストを学習させることで、描き手の個性が反映されたイラストを自動生成できるAIを作成できるサービス」です(サービスリリース後すぐ盛大に炎上してサービス停止しちゃいましたが)。 で、この手の画像自動生成AIのようなコンテンツ自動生成AIですが、著作権法的に問題になる論点は大体決ま

        Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】
      • 【2023年】美少女AIコスプレイヤーをStable Diffusionで生成する方法についてまとめていく!【ChilloutMix】

        気になったゲームの攻略情報、PCの豆知識、様々なガシェットのレビューなどを紹介してます!その他にも管理人の趣味をいろいろと書き綴っています。

          【2023年】美少女AIコスプレイヤーをStable Diffusionで生成する方法についてまとめていく!【ChilloutMix】
        • 画像生成AI「Stable Diffusion」を低スペックPCでも無料かつ待ち時間なしで使う方法まとめ

          2022年8月23日に無料公開された画像生成AI「Stable Diffusion」は、「ボールで遊ぶ猫」「森の中を走る犬」といった指示を与えると指示通りの画像を出力してくれます。Stable Diffusionはデモページで画像生成を試せる他、NVIDIA製GPUを搭載したマシンを用いてローカル環境で実行することも可能です。しかし、デモページは待ち時間が長く、NVIDIA製GPUは所持していない人も多いはず。Googleが提供しているPython実行環境「Colaboratory」を利用すれば、NVIDIA製GPUを所持していなくともStable Diffusionを待ち時間なしで実行する環境を無料で整えられるので、実際に環境を構築する手順や画像を生成する手順を詳しくまとめてみました。 Stable Diffusion with 🧨 Diffusers https://huggingf

            画像生成AI「Stable Diffusion」を低スペックPCでも無料かつ待ち時間なしで使う方法まとめ
          • HなStable Diffusion

            前提として、Stable Diffusionでエロ画像を出そうとしてもsafety checkerという機能が入っており、センシティブな画像を出そうとすると黒塗りになる。 (Stable DiffusionのSaaSであるDream Studioはぼかしだが、多分別の技術) https://github.com/huggingface/diffusers/releases/tag/v0.2.3 そこでGoogle Colabでちゃちゃっと環境を作り、なおかつNSFWを回避する。 1. 下記のリンクでノートを開く https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb 2. 下記の箇所を書き換える vvvvvvvvvvvvvvvvvv f

              HなStable Diffusion
            • 日本語で指示するだけでAIが作画する無料Webサービスを公開しました #Stable Diffusion|shi3z

              お知らせ(8/27 08:08)新サービスに移行しました。より便利に使いやすくなっています。そしてずっと無料です 開発の経緯はこちら https://note.com/shi3zblog/n/n8a3c75574053 夜更かしをしていたらすごい勢いでStable Diffusionが落ちてきて、あまりにうれしいのでこの喜びを皆様と分かち合いたく、無償で公開します。 使い方低コスト運用ですので、テキストボックスに文字を入力したあと、Requestボタンを押して、しばらくしたらリロードしてみるとどこかに自分の入れたものが表示されているはずです。といっても、今回のStableDiffusionはめちゃくちゃ速いので運が悪いと無視されます(そうしないと無限に電気代とサーバー代がかかってしまうので無料故の措置だと思ってください)。 注意事項Requestを連打しないでください。 腕に覚えのある方h

                日本語で指示するだけでAIが作画する無料Webサービスを公開しました #Stable Diffusion|shi3z
              • 画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)

                Stable Diffusion Forgeを表示した様子。基本的な操作は既存のStable Diffusion WebUI AUTOMATIC1111とほぼ同じ 画像生成AI「Stable Diffusion」用の新しいユーザーインターフェース「Forge」が2月6日に登場しました。開発したのは、これまで「Controlnet」や「Fooocus」などStable Diffusion関連の様々な重要技術を開発してきたillyasviel(イリヤスベル)さん。何よりインパクトが大きいのは、グラフィックボードのVRAM容量が小さい安価なPCでも最新版のStable Diffusion XL(SDXL)が動かせることです。 RTX 40シリーズが求められたSDXL SDXLは、2023年8月にStablity AIが発表した画像生成AI。高画質な出力ができる一方、コミュニティーサイトで話題にな

                  画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)
                • midjourneyより高性能だけど入口の敷居が高すぎるStable Diffusionについて、かわなえさんによる導入方法解説まとめ+他の人の補足など

                  リンク ITmedia NEWS 画像生成AI「Stable Diffusion」がオープンソース化 商用利用もOK AIスタートアップ企業の英Stability AIは、画像生成AI「Stable Diffusion」をオープンソース化した。AI技術者向けコミュニティサイト「HuggingFace」でコードやドキュメントを公開した他、同AIを試せるデモサイトなども公開している。 154 users 134 リンク はてな匿名ダイアリー HなStable Diffusion 前提として、StableDiffusionでエロ画像を出そうとしてもsafetycheckerという機能が入っており、センシティブな画像を出そうとすると黒塗りになる。(Stable… 180 users

                    midjourneyより高性能だけど入口の敷居が高すぎるStable Diffusionについて、かわなえさんによる導入方法解説まとめ+他の人の補足など
                  • Stable Diffusion を基礎から理解したい人向け論文攻略ガイド【無料記事】

                      Stable Diffusion を基礎から理解したい人向け論文攻略ガイド【無料記事】
                    • 図解Stable Diffusion

                      ジェイ・アラマールのブログより。 AIによる画像生成は、(私を含めて)人々の度肝をぬく最新のAIの能力です。テキストの説明から印象的なビジュアルを作り出す能力は、魔法のような品質を持ち、人間がアートを創造する方法の変化を明確に指し示しています。Stable Diffusionのリリースは、高性能(画質だけでなく、速度や比較的低いリソース/メモリ要件という意味での性能)なモデルを一般の人々に提供することになったのは、この開発における明確なマイルストーンです。 AI画像生成を試してみて、その仕組みが気になり始めた方も多いのではないでしょうか。 ここでは、Stable Diffusionの仕組みについて優しく紹介します。 Stable Diffusionは、様々な使い方ができる汎用性の高いものです。まず、テキストのみからの画像生成(text2img)に焦点を当てます。上の画像は、テキスト入力と生

                        図解Stable Diffusion
                      • Stable Diffusionのフォトリアル系(実写)モデルを紹介 | Murasan Lab

                        今回はStable Diffusionでリアル系イラストを生成できるモデルを紹介します。 Stable Diffusionではどのようなモデルを使用するかによって、生成される画像のクオリティが大きく変わりますので、モデルの選択は重要な要素となります。 本記事で紹介するモデルは、どれも実写と見分けがつかないほどハイクオリティなイラストを生成できますので、ぜひ試してみてください。

                          Stable Diffusionのフォトリアル系(実写)モデルを紹介 | Murasan Lab
                        • かわなえ@イラスト on Twitter: "Stable Diffusionが一般公開されて自分のPCで動かせるようになったので、全く知識がないけど環境を構築してみました。ちょっと忘れないように簡単にまとめてみる。(1)"

                          Stable Diffusionが一般公開されて自分のPCで動かせるようになったので、全く知識がないけど環境を構築してみました。ちょっと忘れないように簡単にまとめてみる。(1)

                            かわなえ@イラスト on Twitter: "Stable Diffusionが一般公開されて自分のPCで動かせるようになったので、全く知識がないけど環境を構築してみました。ちょっと忘れないように簡単にまとめてみる。(1)"
                          • 話題のStable Diffusionがオープンソース化されたのでローカルで動かしてみる

                            話題のStableDiffusionがオープンソースで8/23に公開されたので、手元のマシンで動かすまで試したいと思います🖼 (下記に記載していますが、自分の環境だとVRAMが不足しているエラーが出てしまったのでイレギュラーな対応をしています🙏) ※ ↑追記 コメント欄にて、 @kn1chtさんが紹介してくださっているように、マシンのVRAMが10GB未満の環境では半精度(float16)のモデルがオススメされています。 本記事では、別の最適化されたものを紹介していますが、こちらの利用も検討してみると良さそうです👉 https://zenn.dev/link/comments/7a470dc767d8c8 StableDiffusionがどんなものかは、深津さんの記事が参考になります。 1. 環境 Razer Blade (RTX 2070, VRAM 8GB) CUDA Toolk

                              話題のStable Diffusionがオープンソース化されたのでローカルで動かしてみる
                            • 世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! - Qiita

                              追記: U-Netの中間層は常にSelf-Attentionとなります。ご指摘いただきました。ありがとうございます。(コード) オミータです。ツイッターで人工知能のことや他媒体の記事など を紹介しています。 @omiita_atiimoもご覧ください! 世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! 未来都市にたたずむサンタクロース(Stable Diffusionで生成) 2022年8月、世界に大きな衝撃が走りました。それは、Stable Diffusionの公開です。Stable Diffusionは、テキストを受け取るとそれに沿った画像を出力してくれるモデルです1。Stable Diffsuionは10億個近いパラメータ数をもち、およそ20億個の画像とテキストのペア(LAION-2B)で学習されています。これにより、Stable Diffusionは入

                                世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! - Qiita
                              • 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について

                                各種方針等 arrow_forward_ios生成系AIについて 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について 2023年4月3日 東京大学理事・副学長(教育・情報担当) 太田 邦史 この半年ほどの期間で、生成系人工知能(Generative AI)が複数発表され、社会的に大きな注目を集めています。基本的には、インターネット上などに存在する既存の文章や画像イメージを大量に機械学習し、これに強化学習を組み合わせなどして、一定レベルの品質の文章や画像を生成するシステムです。とくに、2022年11月に公開され、話題になった大規模言語モデルChatGPTはバージョンが更新され、最新のGPT-4では生成される文章などの質や正確性が著しく向上しています1。 これらの生成系AIは、平和的かつ上手に制御して利用すれば、人類の

                                  生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について
                                • 【Stable Diffusion】MeinaHentaiの利用方法

                                  「高品質なアニメ画像でNSFWコンテンツを生成したい」 「MeinaMixを画像生成のモデルとして利用している」 このような場合には、MeinaHentaiがオススメです。 この記事では、MeinaHentaiについて解説しています。 本記事の内容 MeinaHentaiとは?MeinaHentaiの利用方法MeinaHentaiの動作確認 それでは、上記に沿って解説していきます。 MeinaHentaiとは? MeinaHentai – V3 | Stable Diffusion Checkpoint | Civitai https://civitai.com/models/12606/ 上記ページは、NSFWのコンテンツなので要注意です。 そして、ページにアクセスするにはログインが必要となっています。 MeinaHentaiとは、Meinaシリーズのモデルです。 Meinaシリーズと言

                                    【Stable Diffusion】MeinaHentaiの利用方法
                                  • 簡単なスケッチから「Stable Diffusion」で思い通りの絵を描く手順を解説

                                    画像生成AI「Stable Diffusion」は、「森で遊ぶクマ」「アイスクリームを食べる人間」といった文章を入力するだけで文章に沿った画像を出力してくれるAIです。そんなStable Diffusionには文章と共に「元となる画像」を入力することで出力画像の精度を向上させられるモード「img2img」が存在。このimg2imgを駆使して簡単なラフ画像から高品質なイラストを生成する手順について、ソフトウェアエンジニア兼フォトグラファーのアンディ・サレルノ氏が解説しています。 4.2 Gigabytes, or: How to Draw Anything https://andys.page/posts/how-to-draw/ Stable Diffusionに「森で遊ぶクマ」といった指示を与えた場合、「構図がイメージ通りではない」「夏の森ではなく、冬の森がいい」といったように、イメージ

                                      簡単なスケッチから「Stable Diffusion」で思い通りの絵を描く手順を解説
                                    • LoRAを使った学習のやり方まとめ!好きな絵柄・キャラクターのイラストを生成しよう【Stable Diffusion】

                                      を一通りご紹介するという内容になっています。 Stable Diffusion系のモデルを使って画像を生成していると、 特定のキャラクターのイラストを出したい あるアニメの絵柄を再現したい といった欲求が出てくることがあります。ただ画像生成AIはそのままだと「特定の絵柄・キャラクターを決め打ちで出す」のは非常に難しいですし、それを解決する手法もありましたが高性能なPCが必要で時間もかかる…という問題がありました。 しかしそのような問題を解決する「LoRA」という手法が知られて、今ではかなりポピュラーなやり方になっています。ここではこのLoRAについて

                                        LoRAを使った学習のやり方まとめ!好きな絵柄・キャラクターのイラストを生成しよう【Stable Diffusion】
                                      • 画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場

                                        入力した文字列から高精度な画像を生成できるAI・Stable Diffusionは2022年8月に無料で一般公開され、「基本的に出力した画像は商用・非商用を問わず、自由に利用できる」というライセンスで大きな話題となりました。しかし、Stable DiffusionをローカルなWindows環境に導入して使うには、PythonやAnacondaなどを扱える技術や知識が求められるため、初心者にとっては敷居がやや高いといえます。そんなStable Diffusionを一発でWindows環境にインストール可能で、さらにシェルでのコマンド入力ではなくグラフィックユーザーインターフェース(GUI)で画像生成の指示も簡単にできる「NMKD Stable Diffusion GUI」が公開されました。 My easy-to-install Windows GUI for Stable Diffusion

                                          画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
                                        • ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 | 謎の技術研究部

                                          ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 AIイラストはPromptだけだと思い通りのポーズが出せない。そこで既存の線画やポーズから出力をコントロールする手法がControlNet。できるだけ細かいところまで設定を見ていく。 ControlNetがv1.1にアップデートされたため随時記事更新中!推定モデルの解説はほぼ網羅(一部あまり使われてないと思われるものは掲載していない) かなり頻繁に更新しているため、履歴を最下部に掲載 最終更新時のControlNetのバージョン:1.1.201 はじめに この記事はStable DiffusionのExtensionであるControlNetのより深い解説を目指す。 なにをするもの? 今まで殆ど運任せだった画像生成だが、ControlNetを使うことである程度ユーザーが

                                            ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 | 謎の技術研究部
                                          • Stable Diffusionをいらすとやでファインチューニングする

                                            巷で話題のStable Diffusion(以下SD)をファインチューニングする方法が公開されたので、早速やります。

                                              Stable Diffusionをいらすとやでファインチューニングする
                                            • Google Colab で はじめる Stable Diffusion v1.4|npaka

                                              2. ライセンスの確認以下のモデルカードにアクセスして、ライセンスを確認し、「Access Repository」を押し、「Hugging Face」にログインして(アカウントがない場合は作成)、同意します。 4. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラレータ」に「GPU」を選択。 (2) 「Stable Diffusion」のインストール。 # パッケージのインストール !pip install diffusers==0.3.0 transformers scipy ftfy(3) トークン変数の準備。 以下の「<HugginFace Hubのトークン>」の部分に、先程取得したHuggingFace Hubのトークンをコピー&ペーストします。 # トークン変数の準備 YOUR_TOKEN="<H

                                                Google Colab で はじめる Stable Diffusion v1.4|npaka
                                              • 一番星はてののファンアートをStable Diffusionで出力する(追記あり) - ただいま村

                                                お嬢様系AIはてなブックマーカーを名乗る「一番星はての」が誕生したそうだ。 一番星はてのさんのプロフィール - はてな AIブックマーカー一番星はてのの開発ブログを始めました - 一番星はての開発ブログ ファンアートがいくつもアップされている。これはいいテーマだ。自分もStable Diffusionでやってみよう。 以下、すべての画像に「EasyNegative」と「bad_prompt_version2」を使いました。VAEは「vae-ft-mse-840000-ema-pruned.ckpt」です。 またアップスケーラーは「multidiffusion-upscaler-for-automatic1111: Tiled Diffusion and VAE optimize」(拡張機能からインストールできます)を使っています。txt2imgのタブ内、「シード」の下にできた「タイル状のV

                                                  一番星はてののファンアートをStable Diffusionで出力する(追記あり) - ただいま村
                                                • 【Stable Diffusion】BRAV6によるAIグラビア・AI美女生成

                                                  「AIグラビア・AI美女を簡単に生成したい」 「量産型であるAI顔の画像は作りたくない」 「BRAV5をよく使っている」 このような場合には、BRAV6がオススメです。 この記事ではBRAV6について解説しています。 本記事の内容 BRAV6とは?BRAV6の利用方法BRAV6の動作確認 それでは、上記に沿って解説していきます。 BRAV6とは? BRAV6が、2023年7月7日にリリースされました。 BRAV6とは、BRAのバージョン6(V6)です。 BRAは、Beautiful Realistic Asiansの略称になります。 BRAV6を使うと、次のような美女(AI美女)の画像を簡単に生成できます。 サンプルは、モデル開発者のTwitterから確認できます。 https://twitter.com/PleaseBanKai このBRAシリーズは、今ではかなり有名なモデルになっていま

                                                    【Stable Diffusion】BRAV6によるAIグラビア・AI美女生成
                                                  • 【Stable Diffusion】AIイラストにおすすめなグラボをガチで検証【GPU別の生成速度】 ちもろぐ

                                                    月額料金なし、無制限の生成枚数でAIイラストをガシガシ描くなら、Stable Diffusionをローカル環境にインストールする「AUTOMATIC1111版Stable Diffusion WebUI」が必要です。 しかし、ローカル版AIイラストはグラフィックボードも必須です。 VRAM容量が多くないとダメ RTX 4000シリーズが良い Radeonは絶対にNG などなど・・・。いろいろな情報が飛び交っていますが実際のところはどうなのか? やかもちグラフィックボードをなぜか40枚ほど所有している筆者が、実際にStable Diffusionを動かして徹底的に検証します。 (公開:2023/3/8 | 更新:2024/4/3) この記事の目次 Toggle AIイラスト(Stable Diffusion)におすすめなグラボを検証 検証方法:AIイラストの生成速度をテストする AIイラスト

                                                      【Stable Diffusion】AIイラストにおすすめなグラボをガチで検証【GPU別の生成速度】 ちもろぐ
                                                    • 【2023年版】Stable Diffusion モデルまとめ | BLOG CAKE

                                                      こんにちは、画像生成AIでひたすら猫のイラストを生成している じょじお(@jojio‗illust)です。 この記事にStable Diffusionのモデルをぼちぼちとまとめています。随時更新予定です。

                                                        【2023年版】Stable Diffusion モデルまとめ | BLOG CAKE
                                                      • 「Stable Diffusionであの構図や雰囲気を再現するには何と書けば良いのか?」が目で見て一発でわかる「The Ai Art」

                                                        SNSなどで大きな話題を呼んでいる高精度な画像生成AI「Stable Diffusion」は、入力したテキストを基に画像を生成するため、「呪文」とも呼ばれる適切な文字列を考案することが重要です。しかし、思い描いている理想はあるものの、どんな文字列を入力すればいいのかわからない人も多いはず。そこで、Stable Diffusionで特定の構図や雰囲気を再現するために使える文字列を、画像例を見ながら調べられるウェブサイト「The Ai Art」を使ってみました。 The Ai Art - AI, Art, and everything in between https://www.the-ai-art.com/modifiers 「The Ai Art」にアクセスすると、「Angles(アングル)」の指定に使える文字列が画像と共に一覧表示されました。 「Extreme close-up ang

                                                          「Stable Diffusionであの構図や雰囲気を再現するには何と書けば良いのか?」が目で見て一発でわかる「The Ai Art」
                                                        • 生成AIが新章突入、Stable Diffusion共同開発元が動画版を発表

                                                          画像生成AI「ステーブル・ディフュージョン」の最初のバージョンを開発した英国のスタートアップ企業が、映像を生成するAIを発表した。既存の映像にテキストや画像を指定すると、新しい映像に変換できるという。 by Will Douglas Heaven2023.02.08 413 19 生成AI(ジェネレーティブAI)のスタートアップ企業であるランウェイ(Runway)は、テキスト入力や参照画像で指定した任意のスタイルを適用して、既存の映像を新しい映像に変換できるAIモデル「Gen-1」を発表した。同社は、2022年に話題となったテキストから画像を生成するモデル「ステーブル・ディフュージョン(Stable Diffusion)」を、スタビリティAI(Stability.AI)と共同開発した企業である。 ランウェイのWebサイトに掲載されているデモリールでは、Gen-1が道行く人々をクレイアニメの

                                                            生成AIが新章突入、Stable Diffusion共同開発元が動画版を発表
                                                          • M1 MacBook ProでStable Diffusionを動かすまでのメモ

                                                            画像生成AIのStable Diffusionがオープンソースとして公開されましたね。さっそく動かしてみたいなと思って触ってみることにしましたが、手元にあるのはMacBookだけなので、なかなか大変でした。 ありがたいことに、先人がたくさんいるので参考にして環境構築ができました! たぶんそれなりにすぐにすんなり動かせるようになると思いますけど、今すぐやってみたくてトラブってる人の参考になればと、わりとなぐり書きで恐縮ですが書いておきます。 動作速度とか ちなみに気になる実行速度ですが、自分が使っているのはMacBookPro 14インチモデルの一番スペックが低いやつでして 8コアCPU、14コアGPU、16コアNeural Engine搭載Apple M1 Pro メモリ32GB です。 画像生成中は15〜20GBほどメモリを消費し、5分ほどで画像が6枚生成できます。 学習モデルを取得する

                                                              M1 MacBook ProでStable Diffusionを動かすまでのメモ
                                                            • 画像生成AI「Stable Diffusion」の実行環境を無料でWindows上に構築できる「Stable Diffusion web UI」の導入方法まとめ

                                                              文章を入力すると画像を生成してくれるAI「Stable Diffusion」は、手軽に好みの画像を生成できることから大きな注目を集めており、「NMKD Stable Diffusion GUI」や「Artroom Stable Diffusion」などWindowsに簡単にインストールできる実行環境が数多く開発されています。「Stable Diffusion web UI」もStable Diffusionを簡単に操作できるシステムの一つで、参考画像を指定して好みの画像を生成しやすくする「img2img」に対応していたり、各種設定をスライダーで簡単に設定できたりと使い勝手の良さが際立っていたので、導入方法をまとめてみました。 GitHub - hlky/stable-diffusion https://github.com/hlky/stable-diffusion/ --ULTIMATE

                                                                画像生成AI「Stable Diffusion」の実行環境を無料でWindows上に構築できる「Stable Diffusion web UI」の導入方法まとめ
                                                              • 画像生成AI「Stable Diffusion」をGoogle Colabで動かしたメモ - ただいま村

                                                                AIが画像を自動生成してくれる「Stable Diffusion」がすごい。これを使ったサービス「DreamStudio」は1枚6秒ほどで画像を生成してくれて早いが、無料枠を超えて使うには課金が必要になる。 Google Colabという、Pythonの実行環境を提供してくれるサービス上でStable Diffusionを動かせるそうだ。お金はかからない。1枚の画像生成にかかるのは30秒ほど。その方法は以下で解説されている。 Google Colab で はじめる Stable Diffusion v1.4|npaka|note 自分でもやってみて、今は無事にStable Diffusionを使えるようになっている。しかしGoogle Colabを使うのも初めてだったので上の記事だけだと詰まるところもあった。ここではそれを解説したいと思う。 ライセンスの確認 Hugging Faceのトー

                                                                  画像生成AI「Stable Diffusion」をGoogle Colabで動かしたメモ - ただいま村
                                                                • 世界を変えた画像生成AI、さらに進化「Stable Diffusion XL(SDXL)」いよいよ正式公開 (1/4)

                                                                  Stability AIは6月26日、画像生成AIの最新モデル「Stable Diffusion XL」を発表しました(「画像生成AI『Stable Diffusion』最高性能の新モデル『SDXL 0.9』一般的なPCで実行可能」)。パラメーター数がオリジナルのStable Diffusionの9億から23億へと大幅に拡大され、描写力が飛躍的に上昇したモデルです。正式版のSDXL 1.0が7月18日に公開予定とあり、あらためて注目されています。ベータ版にあたるSDXL 0.9は先行して、有料課金サービス「DreamStudio」と、Discordでの公開を開始していました。Discordでは1人無料で1回出力可能で、いまもリアルタイムで生成画像が見える状態です。その後SDXL 0.9は研究用に公開されて、ダウンロード可能になりました。 大きな違いは「2回生成する」こと SDXLがこれまで

                                                                    世界を変えた画像生成AI、さらに進化「Stable Diffusion XL(SDXL)」いよいよ正式公開 (1/4)
                                                                  • ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました - 勝間和代が徹底的にマニアックな話をアップするブログ

                                                                    最近よく、今話題のAIお絵かきソフト、Stable Diffusionで遊んでいるのですが、問題は、デスクトップパソコンしか強いGPUを積んでいないので、いちいち、デスクトップまで戻らないとできないことです。 でも仕事はだいたいノートパソコンの方でやっていますので、それだとちょっと仕事の合間に遊ぶということができません。 私のノートパソコンには、GTX 1650とかGTX 1660ぐらいの弱いGPUは載っているのですが、ちょっと絵を作らせると1枚1分ぐらいかかってしまうので、あまり試行錯誤かできないので、実用的ではないです。 デスクトップのRTX2060Superなら、だいたい512×512で1枚の絵を4秒くらいでかけますので、それらいのGPUがノートにもほしいなーーー、と思いました。 しかし、そのクラスのノートパソコンを買おうと思うと、それこそ30万円コースでとてつもなく、高いです。しか

                                                                      ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました - 勝間和代が徹底的にマニアックな話をアップするブログ
                                                                    • Stable Diffusionを使って「いらすとや風画像生成モデル」を作った話 - ぬいぐるみライフ?

                                                                      今話題の画像生成モデル「Stable Diffusion」をいらすとやの画像でfinetuneしてみたところ、任意のテキストに対していらすとやっぽい画像を作れるモデルが出来上がりました。 Stable Diffusionとは Stable Diffusionは、指定されたテキスト(文字列)に対応する画像を生成する機械学習モデルのひとつです。ソースコードと学習済みモデルは無償で公開されていて、誰でも利用できるようになっています。 (Stable DiffusionのGitHubページより引用) 今回は、この画像生成モデルをいらすとやの画像でfinetune(微調整)することで、入力テキストに対応する画像をいらすとやのようなスタイルで出力させることを試みました。 開発環境 開発環境はGoogle Colab Pro+で、主にプレミアムGPU(NVIDIA A100)を使いました。Stable

                                                                        Stable Diffusionを使って「いらすとや風画像生成モデル」を作った話 - ぬいぐるみライフ?
                                                                      • 画像生成AI「Stable Diffusion」でいろいろ特化した使えるモデルデータいろいろまとめ

                                                                        画像生成AIのStable Diffusionは、ノイズを除去することで画像を生成する「潜在拡散モデル」で、オープンソースで開発されて2022年8月に一般公開されたため、学習用のデータセットを変えることで特定の画像を生成するのに特化したフォークモデルが多数存在します。そんなStable Diffusionから派生して生まれた特化型モデルとその特徴や生成例をまとめてみました。 Stable Diffusion Models https://rentry.org/sdmodels 実際に複数のモデルとシード値で、同一のプロンプト・ステップ数・CFGスケールで画像を生成した結果をまとめてみました。 モデルは左からStable Diffusion v1.4、Waifu-Diffusion v1.2、Trinart Stable Diffusion、Hentai Diffusion、Zack3D_K

                                                                          画像生成AI「Stable Diffusion」でいろいろ特化した使えるモデルデータいろいろまとめ
                                                                        • Stable Diffusion メモ: キャンバスの縦横比は構図にどれくらい影響するか - jt_noSke's diary

                                                                          Stable Diffusion が公開されてからいろいろ動かして出力の傾向を見てみようとしたメモ。 やったこと 同じpromptを指定して、 縦長(512x768) 横長(768x512) 正方形(512x512) のサイズごとにそれぞれ200枚ずつ出力、それら画像の傾向を見て構図にどんな変化があるかを確認しようとした。ザッと見の印象、感触のみで評価し、定量評価はしない。 使用したプロンプト: a picture of robot and drill and girl greg manchess character concept art of an anime goddess of lust | | cute - fine - face, pretty face, realistic shaded perfect face, fine details by stanley artger

                                                                            Stable Diffusion メモ: キャンバスの縦横比は構図にどれくらい影響するか - jt_noSke's diary
                                                                          • 話題の画像生成AI「Stable Diffusion」で使える呪文のような文字列を実際の画像から見つけられる「Lexica」の使い方まとめ

                                                                            テキストから高クオリティの画像を生成できるAI・Stable Diffusionが話題になる様子を見て、「自分も何か画像を作らせてみたい!」と興味を持っている人は多いはず。Stable Diffusionで画像を生成する際に重要になるのが「どんなテキストを入力するのか」という点で、AIの動作を調べて有効だと判明した文字列は「呪文」とも呼ばれています。そんなStable Diffusionで使える呪文のような文字列を、実際に生成された画像から見つけることができるサービス「Lexica」が登場していたので、実際に使ってみました。 Lexica https://lexica.art/ Stable DiffusionはNVIDIA製GPUを搭載したマシンのローカル環境で実行できるほか、デモページからでも使用できます。しかし、NVIDIA製GPUを所有していない人やデモページの待ち時間が長すぎると

                                                                              話題の画像生成AI「Stable Diffusion」で使える呪文のような文字列を実際の画像から見つけられる「Lexica」の使い方まとめ
                                                                            • Stable Diffusion の仕組みを理解する - ABEJA Tech Blog

                                                                              この記事は、ABEJAアドベントカレンダー2022 の 19 日目の記事です。 こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井です。 世間では Diffusion Model 使った AI による画像生成が流行っているみたいですね。 自分は元々 Computer Vision 系の機械学習エンジニアだったんですが、この1年くらいは AI モデル開発ではなくもっぱらバックエンド開発メインでやっていて完全に乗り遅れた感あるので、この機会に有名な Diffusion Model の1つである Stable Diffusion v1 について調べてみました!*1 では早速本題に入りたいと思います! Stable Diffusion v1 とは? Denoising Diffusion Probabilistic Model(DDPM) 学習時の動作 for

                                                                                Stable Diffusion の仕組みを理解する - ABEJA Tech Blog
                                                                              • 画像生成AI「Stable Diffusion XL」登場。DreamStudioならもう使えて、日本らしい人物・風景が簡単に生成できる(CloseBox) | テクノエッジ TechnoEdge

                                                                                Stability AIは、同社が提供している画像生成AI「Stable Diffusion」を大幅に強化した「Stable Diffusion XL」(SDXL)をオープンソース公開する計画であることを明らかにしました。 学習データを従来の9億パラメータから、23億パラメータへと大幅に強化。これが次期バージョン3に組み込まれるとしています。現在パートナーに対するベータ版提供を行っていますが、パートナーでなくても、DreamStudioユーザーであれば利用できます。 DreamStudioは、Stability AIが提供するAI画像生成サービス。これまで、Stable Diffusionのバージョン1.5、2.1、そして2.1で768×768ピクセルの高解像度描画ができるモデルを利用できていましたが、これにSDXL Beta Previewが加わりました。 ▲DreamStudioならS

                                                                                  画像生成AI「Stable Diffusion XL」登場。DreamStudioならもう使えて、日本らしい人物・風景が簡単に生成できる(CloseBox) | テクノエッジ TechnoEdge
                                                                                • 日本語版「Stable Diffusion」公開 追加学習でオノマトペも理解 「キラキラ瞳」も反映

                                                                                  AI事業を手掛けるrinna社(東京都渋谷区)は9月9日、画像生成AI「Stable Diffusion」を改造した日本語版「Japanese Stable Diffusion」を9日に無料で一般公開すると発表した。日本語で生成したい画像の内容などを指示すると、AIが内容に沿った画像を出力する。 日本語版はStable Diffusionに、日本語キャプション付きの画像を約1億枚追加で学習させたもの。日本語圏の固有名詞や和製英語、オノマトベ(擬音、擬態語など)など、独特の文化を反映した画像を生成できるとしている。 配布場所はGitHubとAI関連コミュニティサイト「Hugging Face」。ソフトウェアへの組み込みも許可する。開発者向けサイト「rinna Developpers」ではAPIも公開する。 8日には、対話AIキャラクターを育成して交流させる同社製SNSアプリ「キャラる」や、同

                                                                                    日本語版「Stable Diffusion」公開 追加学習でオノマトペも理解 「キラキラ瞳」も反映