並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 40件

新着順 人気順

"Stable Diffusion"の検索結果1 - 40 件 / 40件

  • 【西川和久の不定期コラム】 Core Ultra 5搭載ミニPCは、Stable Diffusionのお試しにちょうどいい♪「GMKtec NucBox K9」

      【西川和久の不定期コラム】 Core Ultra 5搭載ミニPCは、Stable Diffusionのお試しにちょうどいい♪「GMKtec NucBox K9」
    • 無料で使える音楽生成AI「Stable Audio Open」をStable Diffusion開発元が公開、テキストから最長47秒のサウンドトラックを生成可能

      画像生成AI「Stable Diffusion」の開発元として知られるStability AIが、オープンソースの音楽生成AI「Stable Audio Open」を公開しました。Stable Audio Openは、文章で指示するだけで最長47秒の音楽を生成できます。 Stable Audio Open — Stability AI https://stability.ai/news/introducing-stable-audio-open We’re excited to announce Stable Audio Open, an open source model optimised for generating short audio samples, sound effects and production elements using text prompts. This

        無料で使える音楽生成AI「Stable Audio Open」をStable Diffusion開発元が公開、テキストから最長47秒のサウンドトラックを生成可能
      • 画像生成AI「Stable Diffusion」の基本から最新技術まで学べる。グラビアカメラマンが教える、生成AIグラビア実践ワークショップ(第2期第2回)を5月22日開催。参加者募集します | テクノエッジ TechnoEdge

        なお、ワークショップ内で使用するプロンプトは、受講者向けにドキュメントとして公開し、その場でコピペするだけで画像生成を体験できる、非常に簡単な仕組み。生成した画像はその場で自分のパソコンに保存できます。 第1期全6回を好評のうちに終了して先月から始まった第2期からは、これまで使っていたフロントエンドのAUTOMATIC 1111を、新しい技術が比較的早いタイミングで使えるComfyUIに切り替え、5月22日、オンラインにて開催いたします。 本ワークショップでは、高価なゲーミングPCがなくても自分で高速な画像生成ができるサービス「生成AI GO」のサーバをお借りしています。なお、生成AIGOはComfyUIには未対応ですが、第1期ワークショップで使用したAUTOMATIC1111には対応しています。 なお、今回お申し込みいただいた方は、前回分の動画アーカイブを視聴いただけます。 グラビアカメ

          画像生成AI「Stable Diffusion」の基本から最新技術まで学べる。グラビアカメラマンが教える、生成AIグラビア実践ワークショップ(第2期第2回)を5月22日開催。参加者募集します | テクノエッジ TechnoEdge
        • Stable Diffusion API を使って塗り絵 自動生成アプリを作る

          Stable Diffusion は、GPU を利用した画像生成 AI の中でも最も有名なプロダクトだと思います。Stable Diffusion の利用者は一般的にまず GPU を準備し、そこで環境を構築してから画像生成を行うのですが、今回は Stability AI(Stable Diffusion の開発元)の用意している API を利用して、塗り絵の自動生成を作ってみました。 塗り絵 自動生成: https://color-painting.vercel.app/ 子どもたちのために、塗り絵を自動生成するサービスです。この記事では、どのようにこのアプリを作ったのか簡単に紹介しております。コードは全て JavaScript です。 ソースコードも github で公開しています。Stability AI Developer Platform, Vercel, Google reCAP

          • Stable Diffusion で自作線画に色を塗る【AI塗り】 | AIとイラストお絵描き

            copainter というAI彩色サービスがリリースされたら、もう私は自力で Stable Diffusion を使った色塗りはしないだろうなと思っています(面倒なので)。ですが、めっちゃいい ControlNet のモデルがリリースされたので紹介します。 Contents この記事で想定している環境使用する ControlNet モデルStable Diffusion で自作線画に色を塗る方法i2i の設定ControlNet の設定生成結果線画重ねDenoising Strength 0.5Denoising Strength 0.65Denoising Strength 0.75試せなかったことすごい lineart だ~この記事で想定している環境 webUI:a1111 か forge モデル:SDXL 系(後で出てくる生成例では Animagine XL 3.1 を使いました)

              Stable Diffusion で自作線画に色を塗る【AI塗り】 | AIとイラストお絵描き
            • 【初心者向け】【無料で作れる】高画質なAIイラスト・AI画像の簡単な作り方(その6)「ローカルPCでStable Diffusion XLを使う(GeForce RTX3060)」

              Stable Diffusion XLとは? Stable Diffusion XLとは「Stable Diffusionでより高画質なAIイラストを作成するもの」という理解で良いのではないかと思います (正確に言うと「Stable Diffusion用の高画質画像モデル」な「モデル」という話みたいです) Stable DiffusionではGeForce1060/1660のメモリ6Gバイトなど「ビデオメモリが6Gバイト以下のビデオカード」でも(無理やり)動いていたのですが、Stable Diffusion XLを使う為にはビデオカードのメモリが8Gバイト以上など無いと難しいかもしれません (私はGeForce RTX 3060(12GB)に交換したタイミングで試しました) (※)私は12Gで試したので8Gについてはコメントできないのですが、公式で「8G以上で動くはず」と書いてあるみたいで

                【初心者向け】【無料で作れる】高画質なAIイラスト・AI画像の簡単な作り方(その6)「ローカルPCでStable Diffusion XLを使う(GeForce RTX3060)」
              • Stable Diffusionで使える画像生成の呪文一覧!おすすめプロンプトと活用事例を紹介 | WEEL

                Stable Diffusionで使える画像生成の呪文一覧!おすすめプロンプトと活用事例を紹介 2024 4/02 AI美少女を生成しようとしても、なかなか思ったとおりのクオリティにならない…という問題に直面していませんか?Stable Diffusionで生成する画像のクオリティを上げるには、使用するプロンプト(呪文)や入力のコツを知っておくことが重要です。 本記事では、Stable Diffusionで画像を生成するとき使える呪文や入力のコツをご紹介します。思い通りの画像を生成するために、ぜひ参考にしてみてください。 なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽にご相談ください。 Stable Diffusionのプロンプト(呪文)とは プロンプト(呪文)とは、画像生成AIに入力する文章を指します。入力するだけで画像が完成してしまう魔法みたいなこと

                • 【Paperspace】Stable Diffusionで生成した画像の一括ダウンロード方法

                  この記事でわかること PaperspaceでStable Diffusion WebUIを動かしていて、ファイルを一括でダウンロードする方法 画像保管先パスのコピーのしかた こんにちは。雪坊主(@yukibowzz)です。 私はPaperspaceのProプランを使っていますが、容量が15GBしかなく生成したたくさんの画像を保管しておくには少し容量が少ないです。 なので定期的に画像をPCにダウンロードしていますが、右クリックで1枚ずつダウンロードするのはとても時間がかかりますよね。 今回はPaperspace上で実行しているStable Diffusion WebUIで生成した画像をZIPファイルにまとめて一括でダウンロードする方法を紹介します。 GPUかCPUを起動する まずGPUかCPUを選択します。 画像を生成する場合はGPU必須ですが、画像をZIPに圧縮するだけであればCPUで十分

                    【Paperspace】Stable Diffusionで生成した画像の一括ダウンロード方法
                  • Stable Diffusionで背景なし・透過した画像を生成する拡張機能3選!

                    Stable Diffusionで背景なし・透過した画像を生成する拡張機能3選! 2023年7月14日 Stable Diffusion活用術 Stable Diffusionで画像を生成した際に、背景を消したい場合、”no background”や”white background”などのプロンプトを入力して、白色の背景の画像を生成した後、別のソフトウェアを使用して背景透過などの処理を行う方法が一般的ですが、拡張機能を用いることで簡単に背景を消すことが出来ます。 今回PROMPTYでは、Stable Diffusion WebUIで使用できる、背景を無くすための拡張機能『ABG remover』『sd_katanuki』『Rembg』について、比較も交えて詳しくご紹介します。 背景を透過させる拡張機能の導入方法 ここでは、3つの拡張機能の導入方法について、画像付きで解説します。 紹介する

                    • Stable Diffusion 2.0をwebuiで試す - テク×てく ブログ

                      記事の概要 環境 Stable Diffusion2.0のモデルデータをダウンロード 画像生成を試す 記事の概要 「stable-diffusion-webui」が「Stable Diffusion 2.0」に対応したので試したみた。 「stable-diffusion-webui」のインストール方法は下記記事に記載。 koubou-rei.com 環境 項目 情報 OS Windows11 GPU NVIDIA GeForce RTX 3080Ti Stable Diffusion2.0のモデルデータをダウンロード stabilityai/stable-diffusion-2 · Hugging Face ↑のリンクから 768-v-ema.ckpt をダウンロードして、 stable-diffusion-webui > models > Stable-diffusion に配置。 ht

                        Stable Diffusion 2.0をwebuiで試す - テク×てく ブログ
                      • 【Stable Diffusion】線画に色塗りをさせる方法について解説

                        線画に色を塗らせる方法ではControlNetを導入する必要があります。 ControlNetでCannyやLineArtのモデルを使うことによって線画に色塗りさせることが出来ます。 ControlNetの導入方法が分からない人は、Google Colabでコードが分からない人でも簡単に導入する方法について以下の記事で解説しているので読んでみてください。

                        • Stable Diffusion web UIをきれいにアップデートする | tenpaMk2's blog

                          Stable Diffusionをローカルで使う人は結構な割合の人がお世話になってる web UI 。 こいつの更新( v1.6.0 )が来てたので、アップデートしたい。 が、単にアップデートしちゃうと前Ver( v1.5.1 )の設定とかが悪さするかもしれない。 そこで、『きれいに』アップデートしようと思う。 1. バックアップ 何はともあれバックアップ。 cloneしたweb UIのフォルダ(ローカルrepo)をコピペするだけ。 web UIのフォルダ以外は使ってないんじゃないかなあ。 確認はしてないけど、GitHubで公開してるようなアプリだし、普通は内部で完結するのが流儀だよね。 2. ローカルrepoのクリーンアップ ローカルrepoをcloneしたときの状態まで戻す。 つまり、 webui-user.bat を実行して落としてきたPython環境とか、 自分の設定とか、Chec

                            Stable Diffusion web UIをきれいにアップデートする | tenpaMk2's blog
                          • Stable Diffusionでリアル・実写系の生成に使える呪文(プロンプト)を紹介

                            Stable Diffusionは、幻想的なもの・風景・動物・人物・イラストなんでも生成できて楽しいですよね! 今回は『リアル・実写系の画像生成に役立つモデル・呪文(プロンプト)』についてご紹介していきますので、是非参考にしてください!

                            • 【Stable Diffusion WebUI】Forge版をGoogle Colabにインストールする方法

                              この記事では、Stable Diffusion WebUI(Forge版)をGoogle Colabratoryにインストールして使う方法を紹介しています。 目次[非表示] 1.Stable Diffusionとは 2.Stable Diffusion WebUI(Forge版)とは 3.Forge版とAUTOMATIC1111版の違い 3.1.VRAM 6GB GPUの場合 3.2.VRAM 8GB GPUの場合 3.3.VRAM 24GB GPUの場合 4.Google Colabとは 4.1.Colabの制限について 4.2.コンピューティングユニットとは 4.3.GPUごとのコンピューティングユニットの消費量 4.4.GPUあたりの消費量の確認方法 5.Colab Proの登録 6.GPUを有効化する 7.GPUの変更方法 8.Stable Diffusion Web UI(For

                                【Stable Diffusion WebUI】Forge版をGoogle Colabにインストールする方法
                              • Stable Diffusion Web-UI を SageMaker Studio で動かしてみる

                                Stable Diffusion Web-UI を SageMaker Studio で動かすための備忘録です 事前準備 Hugging Face のアカウントを準備する Ngrok のアカウントを準備する ngrok のトークンを取得する ngrok(エングロック) の公式ページ(https://dashboard.ngrok.com/) からアカウントを登録する [Your Authtoken] を押して、表示された Token を控えておく Hugging Face のアカウントを準備する Hugging Face の公式ページ(https://huggingface.co/) からアカウントを登録する [Settings] -> [Access Tokens] -> [New token] を押し、トークンを作成し控えておく SageMaker Studio を起動する SageM

                                  Stable Diffusion Web-UI を SageMaker Studio で動かしてみる
                                • Stable Diffusionの拡張機能「Civitai Helper」でモデル管理を簡単にしよう

                                  画像生成AIであるStable Diffusionを利用する際に便利な拡張機能Civitai Helperの概要とインストール方法、および使い方を画像付きで詳しく解説します。 はじめに この記事では、画像生成AIであるStable Diffusionを利用する際に便利な拡張機能であるCivitai Helperについての概要とインストール方法、および使い方を画像付きで詳しく解説します。 Stable Diffusionとは Stable Diffusionとはディープラーニング技術を用いて作られたtext-2-imageモデル(テキストを入力すると画像が出力されるもの)です。 text-2-image以外にも、インペインティング(Inpainting:画像の一部領域の損傷・劣化・欠落部分を(違和感なく)補正する)、アウトペインディング(Outpainting:元画像の領域の外側を補正する)

                                    Stable Diffusionの拡張機能「Civitai Helper」でモデル管理を簡単にしよう
                                  • 【Python】自分のPCで、画像生成AI「Stable Diffusion」を実行する方法(GPU版) – 概要、NSFW無効化も紹介 –|Zero-Cheese

                                    GPUのVRAM(メモリ)が少ないと、下記エラーが発生します。 RuntimeError: CUDA out of memory. ・・・・・私が検証した所、512×512 px画像(標準サイズ)を作るために、約12GBのVRAMが必要でした。 (生成する画像サイズを落とすことで、VRAMの使用量を減らせられます。) 標準サイズの場合、実質的にNvidia RTX3090以上となり高額となっていまします。 (VRAM11GBのGTX1080Tiでも、標準画像サイズの場合、ギリギリ動作します。) しかし、一度その環境を自分のものにすると、 約4sec位(RTX 3090の場合)で、好きなだけ画像を作り続けられる というメリットが手に入ります。 4Kゲームや、高解像度VRとかもストレスレスで楽しめますし、検討してみる価値は、十分にあるかと思います。 ディープラーニング用のPCを組みたい方は、下

                                      【Python】自分のPCで、画像生成AI「Stable Diffusion」を実行する方法(GPU版) – 概要、NSFW無効化も紹介 –|Zero-Cheese
                                    • 【2024最新スペック】画像生成AIにおすすめのノートパソコン10選|Stable Diffusion/DALL·E 3/Midjourney/Adobe Firefly/Canva

                                      この記事を読むと分かること 画像生成AIとはどのようなサービスなのか? 画像生成AIに必要なPCのスペックは? 画像生成AIにおすすめのノートパソコンは? 文章生成から画像生成、最近では動画生成まで、これまでコンサルタントやクリエイターなどが担ってきた様々な分野で生成AIが使われるようになってきました。 では実際、そのような生成AIを使いこなしていくためにどのようなスペックのパソコンが必要なのでしょうか? この記事では、上記のような疑問に答える形で画像生成AIとは何かから画像生成AIにおすすめのPCの選び方、おすすめのノートパソコンまでを紹介しています。 また、画像生成や動画生成といったクリエイティブな分野でAIを利用する場合は、ローカル環境で生成するのか、それともブラウザ環境で生成するのかといった点で求められるPCのスペックは大きく異なるのでその点には注意して選ぶようにしましょう。 以下

                                      • Stable diffusionのimg2imgのスケッチ機能について色々と試してみた|shiba*2

                                        img2imgにある、スケッチ機能について記事にしました。 これはReal time LCMで話題(個人的に)なってるものとほぼ同じやつもので、Real time LCMのものは、一筆記載すると自動的に画像生成され高速で反映され、とても興味深い体験ができます。 私自身、このスケッチ機能をこれまで使用してこなかったので色々試して見ました。img2imgタブの「Sketch」を開くと以下のように出てきます。 img2imgの機能の紹介の中で、このスケッチ機能について解説されている記事は見かけますが、おおむねラフな絵をかいたらいい感じの絵になるみたいな記載が多い印象があります。例えば下のサイトなど。 ただ、最初のリンクにあるfal-ai/realtime-stable-diffusionをしてみた印象では、他の使用方法があるのではと感じました。 この手法は、img2imgのスケッチ機能で、通常は

                                          Stable diffusionのimg2imgのスケッチ機能について色々と試してみた|shiba*2
                                        • 【2024年】Stable Diffusion モデル選びガイド!おすすめモデルも紹介

                                          4ステップでモデル選び Stable Diffusionのモデルの数は数万以上、日々新しいモデルが登場しています。 この「モデルの海」をうまく渡っていくために、次の4つのステップであなた好みのモデルを探す旅に出掛けましょう! ①好みの絵柄のモデルを探す まずは、あなたの好みの絵柄のモデルをいくつかピックアップしてみましょう。 モデルを探してダウンロードできるサイトは「Hugging Face」と「Civitai」です。 Civitaiは絵のイメージを見ることができるので自分好みのモデルを見つけやすいと思います。初心者の方はCivitaiで探すとよいでしょう。 Civitaiで探す Civitaiにはとんでもない数のモデルがあるので、まずはフィルターを使って絞り込みを行います。 「モデル(チェックポイント)」以外のファイルも表示されているので、選びやすくするためにフィルターをかけて「チェック

                                            【2024年】Stable Diffusion モデル選びガイド!おすすめモデルも紹介
                                          • 【ChatGPT】Stable Diffusionのプロンプトを自動作成する方法

                                            画像生成AIのプロンプトをChatGPTで自動で作れるようにしたいです! そのためのルールや条件付けを教えて下さい そのプロンプトから生成されたイラストも実際に見せてくれ! この記事では、以上の疑問にお答えします。 文章生成系AIであるChatGPTと、画像生成系AIのStable Diffusion。 この2つを組み合わせて、AIに全自動でイラストを生成させることが出来るのかどうかを考えてみました。 ChatGPTは文章生成に強みのあるAIですので、Stable Diffusionに指示を出すプロンプト(文章)を作ることも、もちろん可能です。 この記事では、ChatGPTにStable Diffusionのプロンプトを生成する方法についてまとめています。 それではいきましょう。

                                              【ChatGPT】Stable Diffusionのプロンプトを自動作成する方法
                                            • カメラ設定(距離、アングル、フォーカス)に関する呪文(プロンプト)。Stable Diffusion実写系モデルで検証 - 画像生成ドットコム

                                              カメラ位置と被写体を写す範囲を指定する呪文(プロンプト)について学んでいきます。本記事の呪文(プロンプト)はSable diffusionやMidjourneyといった画像生成AIで役に立ちます。本記事を読むことで、構図に関する調整が自由自在になることでしょう。 カメラアングル from above: 上から被写体を撮るアングル from below: 下から被写体を撮るアングル from side: 横から被写体を撮るアングル from behind: 後ろから被写体を撮るアングル from back: 後ろから被写体を撮るアングル(from behindとほぼ同じ) eye-level shot: 目線のショット low angle shot: 低角度のショット high angle shot: 高角度のショット hip level shot: 腰の高さのショット knee level

                                                カメラ設定(距離、アングル、フォーカス)に関する呪文(プロンプト)。Stable Diffusion実写系モデルで検証 - 画像生成ドットコム
                                              • 実は衝撃的に簡単だった Stable Diffusion の使い方 - Qiita

                                                Stable Diffusionといえば文章から画像を生成するAIで、 なんか難しそうというイメージが僕にはあった。 名前からして複雑そうだし(安定拡散モデル)、綺麗な画像を生成している猛者はなんかめっちゃハックし倒してるイメージがあるし、WebUIもセットアップが大変そうである。 モデルも色々あってどれを使えばいいのか頭がクラクラしてくる。 というので1年ぐらいビビっていたのだが、 なんのことはない簡単である pythonが使えれば簡単に使える。 これはガチ。 ということで感動的にシンプルなコードでの使い方。 シンプルな使い方 diffusersをインストール チェックポイントを見つける Web上からモデルのチェックポイントをダウンロードしてくる。 拡張子が.safetensorsとか.ckptになっている数GBあるファイルである。 HugginFace Model Hub とか、チェッ

                                                  実は衝撃的に簡単だった Stable Diffusion の使い方 - Qiita
                                                • AI画像生成を試してみた (AWSにGPUインスタンスを立てて、Stable Diffusionを使ってみる)|がみ

                                                  AI画像生成を試してみた (AWSにGPUインスタンスを立てて、Stable Diffusionを使ってみる) お疲れ様です。がみです。 AI画像生成、何かと話題になっていますよね。悪い方の話題が多きがしますが…。それでも、絵が描けない我々にとっては画期的ですし、イラスト描ける人でも上手く扱うとすごく便利だと思うんですよね(もう使ってるのかな?)。私もね、いい加減試してみないとなと思いまして、さっそくやってみました。エッ….な画像も生成してみたいですしね。 ローカルPCでお試しということで、ローカルPCでStable Diffusion web UIを使って画像生成をやってみました。詳細は省きますが、特定のモデルが上手く動きませんでした。VRAM 8GB 程度じゃダメなんだね…(´・ω・`) 無いなら買うなり借りるなりすればよい。ただ、このためだけにグラボ買い替えるのはさすがにもったいない

                                                    AI画像生成を試してみた (AWSにGPUインスタンスを立てて、Stable Diffusionを使ってみる)|がみ
                                                  • 【Stable Diffusion】ポージング一覧(基本・全身編)

                                                    Stable Diffusionでは、シチュエーションを生み出す様々なポージングがプロンプトとして効果があります。 どれが効果があってどれが効果がないのか、行き当たりばったりで検証するのも大変なので、一覧を作ることにしました。 この世のすべてのポージングを網羅することは難しいので、Danbooruタグにあるもので検証していきます。 タイトルに「(追加)」とあるものは、Danbooruタグにはないものの効果があるプロンプトの組み合わせを載せています。 今回は基本・全身編です。 しっかり効果の出ているものにはタイトルに★をつけてます。 ベース Prompt: (best quarity:1.2), masterpiece, (little female child:1.4), dress, (nup), full body Negative prompt: (worst quality, lo

                                                      【Stable Diffusion】ポージング一覧(基本・全身編)
                                                    • (画像生成AIネタ) Stable Diffusionで画家の真似をする|夢望庵 / Mubou-an

                                                      うちのStable DiffusionにもそろそろSDXLのモデルを使おうかな、と思って、(よく見たら使ってたモデルがSDXLじゃなくてSD1.5でした) シンプルなプロンプトで色々試行中なんですけれど、Mucha styleとかCaravaggio styleとか入れると画風のものまねを結構やってくれる感じ。 てっきり実写系のモデルでやることかと思ったら、アニメ系モデルでもなかなかいける。楽しくて色々やってみた。 モデルはBlazing Drive (V10)。(うっかりしてましたけどこれSDXLじゃなくてSD1.5ですね……) プロンプトは (画家名 style), 1 lady, red long dress ネガティブプロンプトは ng_deepnegative_v1_75t, monochrome サンプラーはRestart 解像度400x640、アップスケーラーはR-ESRGA

                                                        (画像生成AIネタ) Stable Diffusionで画家の真似をする|夢望庵 / Mubou-an
                                                      • Stable Diffusion WebUI ForgeによるSDXL体験|ヨーフ

                                                        1.はじめに【自己紹介】 はじめまして、ヨーフといいます。 https://twitter.com/Yofu_ai 本職はエンジニアで、 データ解析の専門家です。 データ解析で自動化したいときに、 ChatGPTを活用して、 pythonコードを作ったりしています。 2023年10月下旬にAI画像生成に出会い、 しばらくAI画像生成のことを独学で勉強した後に、 AIエセ師さんのコンサル生として FANZA出版、ツール開発の活動しています。 2.ForgeとSDXLStable Diffusion WebUI Forgeは、SDXLモデルの処理速度を向上させるためのプラットフォームです。このプラットフォームを利用すると、一般的な8GBのGPUで約30~45%の推論速度の向上が見込めます。また、Forgeを使用すると、GPUメモリの消費量を削減し、より大きな解像度やバッチサイズでの画像生成が可

                                                          Stable Diffusion WebUI ForgeによるSDXL体験|ヨーフ
                                                        • 【ComfyUI】でstable diffusion3を利用してイラストを生成してみた|タクヤ

                                                          Managerで「api」と検索をすると「Stability API nodes for ComfyUI」という拡張機能があるので、インストールします。 APIキーの取得続いてはstable diffusion3で使う「APIキー」という個々人固有の番号を取得する必要があります。 こちらのサイトにアクセスをして、ユーザーの登録を行います。 登録が完了したら、左側のメニューの「Getting Started」という項目を選択します。 選択後表示された英文中にある「API keys」と呼ばれるリンクを選択します。 するとAPIキーを管理する画面が表示されるので(初回はボタンだけ)、「Create API key」を選択します。 そうすると、以下のようにキーのデータが表示されるので、目玉のアイコンの左隣にあるコピーアイコンを選択して、キーを保持します。 生成してみよう!ComfyUIに戻って、何

                                                            【ComfyUI】でstable diffusion3を利用してイラストを生成してみた|タクヤ
                                                          • 【Stable Diffusion】【ハニカム】いち早く川澄結衣ちゃんと濃密プレイ : ステムゲーマーズ

                                                            どうもこんにちは。 ハニカム発表から2日経過。 早く新デフォルトヒロイン川澄結衣ちゃんとゴニョゴニョしたいとおっしゃる方も多いでしょう。 私も何を隠そうその一人(隠す意味ないですけどね!)。 川澄結衣ちゃんのディテールはもう発表されているのでそちらからStable Diffusionで色々と起こしていきましょう。 まず用意したのはこちら。 ハニカム体験版のスクリーンショット。何もイジってない川澄結衣ちゃん。 首までの茶色い髪、紫の目、白TシャツをショートデニムにIN、むっちりとした太もも。 このあたりを大事にしてStable Diffusionに突っ込んでいきます。 Stable DiffusionのTaggerという拡張機能から川澄結衣ちゃんの特徴を拾ってもらいます。 こちらをベースに色々とやっていきましょう。 品質呪文や私の好みを反映して生成された川澄結衣ちゃん候補Ver1.0。 ここ

                                                              【Stable Diffusion】【ハニカム】いち早く川澄結衣ちゃんと濃密プレイ : ステムゲーマーズ
                                                            • Stable Diffusion を Core ML に変換する - Qiita

                                                              Stable Diffusion も Core ML に変換できる。 MacOSや(実行時間はかかるが)iOSで使うこともできる。 変換手順 ml-stable-diffusion をインストール アップルのstable duffusionのリポジトリをインストールします。 git clone https://github.com/apple/ml-stable-diffusion.git cd ml-stable-diffusion pip3 install -r requirements.txt pip3 install omegaconf pip3 install safetensors case 1: Hugging Face Hub の Stable Diffusion モデルを変換 Hugging Face Hub の model_index.json があるモデルが変換できま

                                                                Stable Diffusion を Core ML に変換する - Qiita
                                                              • 【2024年】Stable Diffusionで商用利用可能なモデルの確認方法!ライセンスや著作権についても解説

                                                                Stable Diffusionは基本的に商用利用可能! Stable Diffusion(ステーブルディフュージョン)は、生成した画像についての権利を主張しないとしています。ただし、個人情報や間違った情報などの他の人に危害を与えてしまうような場合は除きます。 以下はStable Diffusionを開発しているStability AI社のライセンス規約です。 The model is licensed with a CreativeML OpenRAIL++ license. The authors claim no rights on the outputs you generate, you are free to use them and are accountable for their use which must not go against the provisions s

                                                                • AI画像の生成装置|Stable Diffusion

                                                                  ブログの投稿者: 結城永人タイトル: AI画像の生成装置|Stable Diffusion投稿のリンク: https://www.nagahitoyuki.com/p/ai-image-generator.html最終更新: 2024年5月25日 コメント

                                                                    AI画像の生成装置|Stable Diffusion
                                                                  • Stable Diffusionで背景をワンクリックで除去!『ABG Remover』の使い方徹底解説

                                                                    こんにちは!Stable Diffusionで画像生成を楽しんでいる皆さん、背景除去に苦労したことはありませんか?実は、『ABG Remover』という拡張機能を使えば、ワンクリックで背景のみを除去できるんです! 最後まで読めば、『ABG Remover』を使ってキャラクターだけを切り抜く方法がバッチリ分かります。それでは、早速見ていきましょう! 背景のみをなくす拡張機能『ABG Remover』の特徴 『ABG Remover』は、Stable Diffusionで生成したイラストから背景を消し、キャラクターだけを切り抜くことができる便利な拡張機能です。txt2imgとimg2imgの両方に対応していますが、基本的には、すでに生成済みのイラストからimg2imgでキャラクター部分を切り抜くという使い方が主流になりそうです。 txt2imgでイラストを生成する際、背景なしを望む場合は、「s

                                                                    • Stable Diffusion WebUI Paperspaceでファイルを一括ダウンロードする方法 - Prompt Mastery

                                                                      Paperspaceで生成した画像をダウンロードしようとした時、なぜだかフォルダごとダウンロードができない。 ファイル一つ一つは普通にできるのですが、それでは面倒くさいので一括でダウンロードしたいですよね。 ここでは、ターミナルを使って画像保存フォルダごとダウンロードする方法を説明します。 ファイルの一括ダウンロード GPUの起動 GPUと時間を選択して、「START MACHINE」をクリックします。既に起動していた場合は、この手順は不要です。 ファイルのパスをコピー ダウンロードするフォルダを選択し右クリックして「Copy path」を選択します。 ターミナルの起動 ターミナルのアイコンをクリックします。 「+」のアイコンをクリックしてターミナルを起動します。 画面下部にターミナルのウインドウが開きます。 コマンドの入力 ファイル圧縮コマンド「zip -r ファイル名.zip」に先ほど

                                                                        Stable Diffusion WebUI Paperspaceでファイルを一括ダウンロードする方法 - Prompt Mastery
                                                                      • Stable Diffusion 3.0 性能検証

                                                                        はじめに 今回はつい先日リリースされたばかりのStable Diffusion 3.0を課金してつかってみたので、簡易的なレポートができればと思います! 使ってみたいけど課金するのはちょっと…と思っている方はぜひ一度参考にしていただければと! SD3の紹介 Stable Diffusion 3 APIが利用可能に — Stability AI Stability AI - Developer Platform Stability AIの最新モデル、現在はAPI経由でのみ利用が可能。 モデルアーキテクチャが一新され、Diffusion Transformerを採用したのと、T5とCLIP2つの計3つをText Embedderに使っている。 T5をEmbedderに使っているので文字生成も可能となっている。 (出展: https://stability.ai/news/stable-diff

                                                                          Stable Diffusion 3.0 性能検証
                                                                        • 知識ゼロからの【Stable Diffusion Web UI 】#3 画像から画像を生成しよう | AICGゼミ | For Students Starting AI,CG

                                                                          世界一乱暴な画像生成AIの使い方ページはここです。 元画像img2img生成画像このページは「乱暴な説明でもよいのでとりあえず画像生成AIを体験したい」という方を対象に進めます。細かい説明や難しい知識は可能な限り省略して、まずは画を生成することに集中します。 img2imgとはImg2Img(Image-to-Image)は、Stable Diffusionを含むAI画像生成ツールにおいて、既存の画像を入力として新しい画像を生成する機能です。このプロセスは、入力画像に対してテキストプロンプトの指示に基づいた変更を加えることで、スタイルの変更、要素の追加または除去、画質の向上など、さまざまな目的で利用されます。 img2imgで画像を生成するStable Diffusion Web UIを開始まず、stable-diffusion-webuiフォルダ内のwebui-user.batをダブルク

                                                                          • 【AIイラスト】30分でできるStable Diffusionの環境構築【Windows】|ゆいのあき

                                                                            友達に教えて「環境構築について教えて」と言われたのでその説明をする前の整理と、復習用にnoteを書きましたLinuxでもmac環境でもStable Diffusionの構築は可能ですが、Windows環境を想定して記載します。 このnoteを見ると何ができる?ローカルPCでStable Diffusionを用いてイラストが生成できるようになります。また、イラスト生成をブラウザで実行しやすくするために作成されているAUTOMATIC1111というものを利用します。 ローカルPCで構築とかよくわからない!めんどくさそう!という方はほかのサービスを利用しましょう。月に1000円くらいかかりますが、安定した画像を出力してくれるNovel AIやMidjourneyを利用すると良いでしょう。 はじめにこの手順は2023/6/17の情報をもとに作成されています。 鉄則です。公式のドキュメントを見ましょ

                                                                              【AIイラスト】30分でできるStable Diffusionの環境構築【Windows】|ゆいのあき
                                                                            • Stable Diffusionでmov2movを使ってAIダンス動画を作成する方法

                                                                              mov2movの拡張機能を使用することで、AIアニメーション動画、AIダンス動画などが作成できるようになります。 Stable Diffusion Web UIでは画像生成だけでなく、拡張機能を追加することによって動画生成まですることが出来るようになりました。 今回の記事では、Stable Diffusion Web UIを使った方法で、実写の元動画からアニメ調にしたダンス動画を作成する方法について解説します。 mov2movでは、予めControlNetの導入が必要になります。 Google Colabを使っている人でControlNetの導入方法が分からない人は、以下の記事で簡単に入れる方法について解説しているので読んでみてください。

                                                                              • Stable Diffusionでプロンプトを抽出できる「tagger」の導入方法・使い方

                                                                                どんな呪文(プロンプト)を入力したらいいか分からない 画像から呪文(プロンプト)を出力したい Tagger(タガー)って何? Taggerの使い方は? 今回は、「Tagger」を使って画像から呪文(プロンプト)を一瞬で抽出し、画像生成がスムーズに行える方法をご紹介します。 この記事を最後まで読んでいただくと、呪文(プロンプト)に悩むことなく自分好みの画像を簡単に生成することができるようになりますので、是非参考にしてください!

                                                                                • Stable Diffusion+LoRAを使って異常画像データを生成できるか検証してみた|調和技研ブログ

                                                                                  こんにちは、調和技研・AI画像グループの神戸です。 近年、製造業を中心に、AIを活用した異常品検出を導入する企業が増加しており、品質管理の現場で重要な役割を果たすようになっています。 本記事では、前回の記事「Stable Diffusionを使って異常画像データを生成できるか検証してみた」の続編として、LoRAを用いた追加学習によってより精度の高い異常画像を生成できるか検証した結果をご紹介します! 異常品検出における課題:異常データが少ない一般的に、異常品検知では正常データのみを用いた学習アプローチが主流です。異常品のデータ収集は困難であるため、この方法が多くの場面で採用されています。しかし、もし異常品のデータを十分に準備できれば、より精度の高い異常品検知や異常の具体的な分類が可能になり、品質管理の効率化や生産プロセスの改善に大きく寄与することができます。そこで、AIを用いて異常品の画像を

                                                                                    Stable Diffusion+LoRAを使って異常画像データを生成できるか検証してみた|調和技研ブログ
                                                                                  1