並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 64件

新着順 人気順

ControlNetの検索結果1 - 40 件 / 64件

ControlNetに関するエントリは64件あります。 AI画像人工知能 などが関連タグです。 人気エントリには 『【全体公開】今から追いつく!AIイラスト超入門|スタジオ真榊【AIイラスト術解説】|pixivFANBOX』などがあります。
  • 【全体公開】今から追いつく!AIイラスト超入門|スタジオ真榊【AIイラスト術解説】|pixivFANBOX

    こちらの記事は2023年3月9日に投稿された旧バージョンです。特段の理由がなければ、最新事情を盛り込んだ「AIイラストが理解る!StableDiffusion超入門」をご覧ください。 こんばんは、スタジオ真榊です。このところ、ツイッター経由で公式サイトやこちらのFANBOXへのアクセスが急増しており、これからAIイラストを始め...

      【全体公開】今から追いつく!AIイラスト超入門|スタジオ真榊【AIイラスト術解説】|pixivFANBOX
    • AIイラストの進化スピードが早すぎてもはや完全にゲームチェンジしてる「人間にしか出来ないアウトプットとは…」

      賢木イオ🍀AIイラスト @studiomasakaki 水星の魔女が大好きなAIイラストレーター / 国内最大級の検証記事群「AIイラストが理解る!」「プロンプト超辞典」編集/過去のコンテンツは「ハイライト」、r-18はpixivにあります/自己紹介を兼ねた怪文書▶️ひたすらAI絵やってたら絵が描けるようになってた話ur0.jp/M2BtD studiomasakaki.fanbox.cc 賢木イオ@スタジオ真榊 @studiomasakaki AIイラストはControlnetの登場で完全にゲームチェンジしましたわ。線画から色塗りができるのは本当に素晴らしい機能!「あくまで自分の線のまま」にすることも、「AIに補正してもらう」こともできるのがポイントです。 これは色指定をしていませんが、「赤い髪・黒い服・黄色の目」と指定すると、 pic.twitter.com/V0flFRYmqp 2

        AIイラストの進化スピードが早すぎてもはや完全にゲームチェンジしてる「人間にしか出来ないアウトプットとは…」
      • 画像生成AIに2度目の革命を起こした「ControlNet」 (1/4)

        画像生成AI「StableDiffusion」の進化が止まりません。昨年8月にオープンソースとしてリリースされてから、世界中のプロアマ問わず多数の人たちが様々な研究成果を反映させ、毎日と言っていいほど新機能を誰かが発表するという状況が起きています。 StableDiffusion登場当初は、画像の品質のランダム性が高く、構図やポーズなどを指定できないという弱点を抱えていました。1枚の画像をもとに画像を生成する「i2i(image2image)」である程度コントロールすることはできても、「キャラクターに特定のポーズをとらせる」といったことは非常に難しかったんですね。 その状況を一変させる新機能が今年2月に登場しました。その名も「ControlNet」。プロンプトによる制約を克服するための、とてつもないポテンシャルを持つ技術でした。Stable Diffusionに次ぐ「2度目の炸裂」と言って

          画像生成AIに2度目の革命を起こした「ControlNet」 (1/4)
        • 画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)

          Stable Diffusion Forgeを表示した様子。基本的な操作は既存のStable Diffusion WebUI AUTOMATIC1111とほぼ同じ 画像生成AI「Stable Diffusion」用の新しいユーザーインターフェース「Forge」が2月6日に登場しました。開発したのは、これまで「Controlnet」や「Fooocus」などStable Diffusion関連の様々な重要技術を開発してきたillyasviel(イリヤスベル)さん。何よりインパクトが大きいのは、グラフィックボードのVRAM容量が小さい安価なPCでも最新版のStable Diffusion XL(SDXL)が動かせることです。 RTX 40シリーズが求められたSDXL SDXLは、2023年8月にStablity AIが発表した画像生成AI。高画質な出力ができる一方、コミュニティーサイトで話題にな

            画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)
          • AIお姉ちゃんへの道 - nomolkのブログ

            ちょっと前に話題になっていたこの記事を読んだ。 honeshabri.hatenablog.com へー真似しよ〜と思ってやってみたら意外に難しくて謎のやりがいを感じ始めてしまい、仕事のクソ忙しい時期にかなりハマり睡眠不足で生命の危機を味わった。 おかげで寿命と引き換えに自分のAIお姉ちゃんを手に入れることができた。これは黒魔術か何かなのだろうか。 一通り終えて振り返ってみると、今まで生成AIをあまり積極的に触ってこなかった自分にとってはちょうどいい難しさの課題で、これは入門者向けのチャレンジとしてかなり良い気がする。 元記事に書かれていない少し細かい手順も含めてやったことを記録としてまとめようと思う。 初心者が試行錯誤でやったことなので誤りや非効率な手順もあるかもしれないけどご了承ください。 AIお姉ちゃんの姿を作る 元記事では「魂」、つまりChatGPTの設定から始まっているけど、それ

              AIお姉ちゃんへの道 - nomolkのブログ
            • 漫画未経験のエンジニアが今のAIで漫画制作にトライしてみた記録2023年夏時点版|Anno Takahiro

              画像生成AIの躍進が目覚ましい。エンジニア兼SF作家の筆者としては、AIが絵を描けるようになるのなら、絵が描けない自分でも漫画制作ができるようになるのではという期待があった。実際に2022年の末頃にはstable diffusionを使った漫画制作UIのプロトタイプを作ってみたこともある。 Google ColabでAI漫画制作用のUIを試作してみた。コマごとにプロンプトが割り当ててあって、AIが裏でたくさん選択肢を作りまくってくれる。人間が大量の絵からベストなものを選んだり、構図やセリフの調整に集中できるようなワークフローがいいのではないかという仮説 #stablediffusion pic.twitter.com/zI64zm3cNI — 安野貴博 (@takahiroanno) November 10, 2022 それから半年以上の月日が経ち、世の中でもMulti ControlNe

                漫画未経験のエンジニアが今のAIで漫画制作にトライしてみた記録2023年夏時点版|Anno Takahiro
              • AIイラスト生成技術にまた衝撃 キャラのポーズが自由自在の「ControlNet」登場

                AIでのイラスト生成時、キャラクターに自由なポーズを取らせることができる──そんな新技術が話題だ。その名は「ControlNet」。2月10日に論文が投稿されると、数日後にはStable Diffusion用WebUI向けの拡張機能がGitHubに登場。15日には、AIイラストに注目するTwitterユーザーの間で「革新的な変化」と話題になっている。 論文によれば、ControlNetはStable Diffusionなどの拡散モデルでテキストから画像を生成するときに、追加の入力条件を加えて生成結果を制御するニューラルネットワークという。Stable DiffusionとControlNetを併用することで、より容易に生成結果を制御できるとしている。

                  AIイラスト生成技術にまた衝撃 キャラのポーズが自由自在の「ControlNet」登場
                • ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 | 謎の技術研究部

                  ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 AIイラストはPromptだけだと思い通りのポーズが出せない。そこで既存の線画やポーズから出力をコントロールする手法がControlNet。できるだけ細かいところまで設定を見ていく。 ControlNetがv1.1にアップデートされたため随時記事更新中!推定モデルの解説はほぼ網羅(一部あまり使われてないと思われるものは掲載していない) かなり頻繁に更新しているため、履歴を最下部に掲載 最終更新時のControlNetのバージョン:1.1.201 はじめに この記事はStable DiffusionのExtensionであるControlNetのより深い解説を目指す。 なにをするもの? 今まで殆ど運任せだった画像生成だが、ControlNetを使うことである程度ユーザーが

                    ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 | 謎の技術研究部
                  • ControlNetでポーズや構図を指定してAIイラストを生成する方法|ddPn08

                    こんにちは。だだっこぱんだです。 今回は、AIイラスト界隈で最近話題のControlNetについて使い方をざっくり紹介していきます。 モチベが続けば随時更新します。 StableDiffusionWebUIのインストール今回はStableDiffusionWebUIの拡張機能のControlNetを使います。 WebUIのインストールに関してはすでにいろんな解説記事や動画があると思うのでそちらをご参照ください。 一応僕が作った簡単にWebUIを起動できるソフトも紹介しておきます(せんでん)

                      ControlNetでポーズや構図を指定してAIイラストを生成する方法|ddPn08
                    • うみゆき@AI研究 on Twitter: "はい、ゲームエンド。ハッキリ言ってControlNetの登場によって、今までの画像生成での複雑な呪文を試行錯誤してガチャ引きまくって何とかするパラダイムは試合終了しました。これからはプロンプトフリーになって、ボーンで直接構図やポーズを指定するAIレンダリングのパラダイムの始まりや https://t.co/st4tJMZIfo"

                        うみゆき@AI研究 on Twitter: "はい、ゲームエンド。ハッキリ言ってControlNetの登場によって、今までの画像生成での複雑な呪文を試行錯誤してガチャ引きまくって何とかするパラダイムは試合終了しました。これからはプロンプトフリーになって、ボーンで直接構図やポーズを指定するAIレンダリングのパラダイムの始まりや https://t.co/st4tJMZIfo"
                      • アニメの常識、画像生成AIが変える可能性「AnimateDiff」のすごい進化 (1/3)

                        原画と原画の間にあたる画像を複数枚入れることで、自然な連続性のある動きを作る。アニメの基本となる「中割」作業を画像生成AIが実現する可能性が出てきました。鍵になっているのは「AnimateDiff」という技術。8月に入って、様々なユーザーのアップデートによって機能拡張が進められています。それは完全な画像生成AIで作られるアニメの可能性を垣間見せるほどのものです。 16コマ/2秒の短い動画が生成できる AnimateDiffは7月10日に発表された、上海AIラボ、香港中文大学、スタンフォード大学の共同研究による技術。画像生成AI「Stable Diffusion」の仕組みとデータセットを利用しつつ、数百万本の動画を学習させた「モーションモジュール」と呼ばれるデータセットを別途に参照させることで、連続するキャラクターの動きを生成可能にするというのが基本原理です。生成できる時間は、16コマ/2秒

                          アニメの常識、画像生成AIが変える可能性「AnimateDiff」のすごい進化 (1/3)
                        • https://twitter.com/Yamkaz/status/1626486302962245633

                            https://twitter.com/Yamkaz/status/1626486302962245633
                          • 「ControlNet 1.1」の新機能まとめ!新しいモデルや改善点を紹介【Stable Diffusion】

                            を一通りまとめてご紹介するという内容になっています。 ControlNetは生成する画像のポーズ指定など幅広い用途に使える技術であり、すでに活用なさっている方も多いと思います。そのような中で、つい先日ControlNetの新しいバージョンがStable Diffusion web UI用の拡張機能に実装されて色々な新機能・改善が盛り込まれたので早速使ってみることにしました。 ここではこのCotrolNet 1.1の新機能や改善点について分かりやすく解説していきますね。

                              「ControlNet 1.1」の新機能まとめ!新しいモデルや改善点を紹介【Stable Diffusion】
                            • 一番星はてのちゃんのファンアートを描いた

                              「あの一番星のように、ブコメに最初にスターを付けるような人間になりましょう」という表現であり、決してブックマーカーを煽っているポーズではない 一番星はての1ちゃんのファンアート2を描いた(上画像)。独自解釈が含まれるため注意。 デフォルメなのは筆者の好み 公式設定は17歳3だが、このファンアートではもっと若く奔放なとき、という設定 基本的には最初の公式全身絵4を参考にしている ミニスカートおよびニーハイソックスは公式デフォルメ5を参考にしている スカートの端に白いラインが入っているのは、白のトップスと収まりが良いため ニーハイソックスをレース付きにしたのは、お嬢様感を出すため 茶色のシューズは(ソックスと同色である)黒のシューズのような脚長効果のシナジーは小さいが、単にソックスとの色被りを避けたい気分だった 一番星はてのを描こうと思ったのは、筆者も ChatGPT を使って同様の自動投稿シ

                                一番星はてのちゃんのファンアートを描いた
                              • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第九回:Fooocus-MREでimage-2-imageやControlNetを試す (西川和久) | テクノエッジ TechnoEdge

                                今回はそれだけでは面白く無いので、元画像を絵柄そのまま高精細なフルHDにアップスケールしたい、もしくはそのまま使って絵を変えたい、構図やポーズをある程度固定したい、Photoshopのジェネレーティブ塗りつぶし的な機能は?…と言った、もう少しStable Diffusionっぽい使い方を順に説明する。 image-2-image / UpscalePromptから画像を得る方法を一般的にText-2-Imageと呼んでいる(txt2imgやt2iとも)。文字通りテキストから画像を…と言う意味だ。 Stable Diffusionでは、加えて画像から画像を得る方法があり、これをImage-2-Imageと呼んでいる(img2imgやi2iとも)。言葉よりも画像の方がより多くの情報を持っているので、それを使おうと言う意図だ。 これまで生成した画像の解像度は、832✕1,216や1,024✕1,

                                  生成AIグラビアをグラビアカメラマンが作るとどうなる?第九回:Fooocus-MREでimage-2-imageやControlNetを試す (西川和久) | テクノエッジ TechnoEdge
                                • 画像生成AI「Stable Diffusion」で美麗イラストとQRコードを融合させる試み

                                  決済手段としても用いられるようになっている「QRコード」は、一部が破損・汚損していたり読み取り時に隠れていても大丈夫なように誤り訂正機能が盛り込まれています。これを活用して、QRコードと美麗なイラストを融合させる試みが行われています。 AI 生成可扫码图像 — 新 ControlNet 模型展示 https://mp.weixin.qq.com/s/i4WR5ULH1ZZYl8Watf3EPw AIGC All in One https://aigc.ioclab.com/index.html Redditor creates working anime QR codes using Stable Diffusion | Ars Technica https://arstechnica.com/information-technology/2023/06/redditor-creates-

                                    画像生成AI「Stable Diffusion」で美麗イラストとQRコードを融合させる試み
                                  • 無料お絵描きアプリ「Krita」に画像生成AIを組み込んで落書きから美麗イラストを作成する方法まとめ、Stable DiffusionとControlNetをコマンドなしでサクッと導入可能

                                    無料かつ高機能なペイントアプリ「Krita」に画像生成AI「Stable Diffusion」を組み込むプラグインが「krita-ai-diffusion(AI Image Diffusion)」です。Generative AI for Kritaを使えば落書きのような下描き画像から美麗イラストを生成できるとのことなので、インストール手順や使い方をまとめてみました。 GitHub - Acly/krita-ai-diffusion: Streamlined interface for generating images with AI in Krita. Inpaint and outpaint with optional text prompt, no tweaking required. https://github.com/Acly/krita-ai-diffusion ・目次 ◆1

                                      無料お絵描きアプリ「Krita」に画像生成AIを組み込んで落書きから美麗イラストを作成する方法まとめ、Stable DiffusionとControlNetをコマンドなしでサクッと導入可能
                                    • ポーズや構図を指定してサクッと好みのイラスト画像を生成しまくれる「ControlNet」&「Stable Diffusion」の合わせ技を試してみたよレビュー

                                      Stable Diffusionなどの画像生成AIの登場によって、手軽に好みの画像を出力できる環境が整いつつありますが、テキスト(プロンプト)による指示だけで好みのポーズのイラストを生成するには長い時間や経験が必要です。新たに開発された「ControlNet」を画像生成AIと併用すれば、好みのポーズを指定したイラストを簡単に生成できるとのことなので、実際にインストールして使い方を確かめてみました。 GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet https://github.com/Mikubill/sd-webui-controlnet ControlNetでポーズや構図を指定してAIイラストを生成する方法|ddPn08|note https://note.com/ddpn08/n/n7fce83

                                        ポーズや構図を指定してサクッと好みのイラスト画像を生成しまくれる「ControlNet」&「Stable Diffusion」の合わせ技を試してみたよレビュー
                                      • 画像生成AI「Stable Diffusion」をMulti ControlNetで制御して「実写映像を忠実にアニメ化」したムービーがすごい

                                        Stable Diffusionなどの事前学習済みモデルに対して、輪郭線や深度、画像の領域区分(セグメンテーション)情報などを追加して出力をサポートする技術が「ControlNet」です。このControlNetを使うことで、別途に読み込ませた画像に写っている線画や人の姿勢などを出力結果に強く反映させることが可能です。このControlNetを複数使用する「Multi ControlNet」で実写の映像を忠実にアニメ化したムービーが、オンライン掲示板のRedditで公開されました。 I transform real person dancing to animation using stable diffusion and multiControlNet : r/StableDiffusion https://www.reddit.com/r/StableDiffusion/comment

                                          画像生成AI「Stable Diffusion」をMulti ControlNetで制御して「実写映像を忠実にアニメ化」したムービーがすごい
                                        • 【画像生成AI】CharTurnerLoRAとControlNetを併用してキャラシートを安定して出力させる方法|ステスロス

                                          ローカル環境を作ったときに使ってみたかった機能にCharTurnerLoRA(同一キャラを複数視点で出力するLoRA)があったので早速使ってみたものの、出力が安定していなかったのでControlNetを併用する方法を考えてみた。 さらにランダム要素を加えてキャラクターデザインをいろいろさせてみよう計画に成功したのでnoteにまとめてみる。 下準備:CharTurnerとControlNetとwildcardsを用意する拡張機能の準備CharTurner LoRA版とTI版があるのでお好みのほうをDL! 解説はLoRA版で https://civitai.com/models/7252/charturnerbeta-lora-experimental ControlNet https://github.com/Mikubill/sd-webui-controlnet wildcards でん

                                            【画像生成AI】CharTurnerLoRAとControlNetを併用してキャラシートを安定して出力させる方法|ステスロス
                                          • 「描いたイラストをリアルタイムでAIに手直ししてもらえる環境」を「Stable Diffusion」と「Redream」の組み合わせで実現する方法まとめ、ControlNetも使って高品質な画像を生成可能

                                            画像生成AI「Stable Diffusion」の登場以来、コミュニティの有志たちによって多くのAIツールが開発されています。コミュニティ製ツールの1つである「Redream」は「PCの画面内の一部を常にキャプチャし、キャプチャした画像をimg2imgに流し込んで画像を生成し続ける」という機能を持っています。Redreamを使ってみたところ「描いたイラストをリアルタイムでAIに手直ししてもらえる環境」というメチャクチャ便利な環境を構築できたので、インストール手順や使い方をまとめてみました。 GitHub - Fictiverse/Redream: Realtime Diffusion, using Automatic1111 Stable Diffusion API https://github.com/Fictiverse/Redream Redreamで構築した「描いたイラストをリアル

                                              「描いたイラストをリアルタイムでAIに手直ししてもらえる環境」を「Stable Diffusion」と「Redream」の組み合わせで実現する方法まとめ、ControlNetも使って高品質な画像を生成可能
                                            • 【イラストAI】タッチ、絵柄、キャラを学習出来るLoRAや、画像の一部分をControlNetで修正する方法

                                              まっくす @minux302 入力画像を変換するタスクを Diffusion モデルで解く ControlNet についての解説記事を書きました。画像のような線画 -> 着彩のタスク等を解くことができます。 新時代の pix2pix? ControlNet 解説|まっくす zenn.dev/minux302/artic… #zenn pic.twitter.com/wNJhH4poyJ 2023-02-11 16:49:10

                                                【イラストAI】タッチ、絵柄、キャラを学習出来るLoRAや、画像の一部分をControlNetで修正する方法
                                              • お絵描き趣味の人間が画像生成AIを使ってみた

                                                その結果が以下。 https://i.imgur.com/UBzZTBy.jpeg このラフがしっかり仕上げされる形になってて本当にびっくりした。 ここまで来るのに環境構築も含めて5時間もかかってない。 軽く自己紹介すると、ワイはお絵描きが趣味でIT系の仕事をしとる人間や。 最近のTwitter上のオタク界隈はAI絵の炎上が絶えない。 Stable Diffusion は出たての頃にちょっと触ってみたんやけど、何百枚も生成して使える絵は片手で数えるほどだったという印象があってそのあとはあまり真面目に技術を追いかけとらんかった。しかし最近の炎上を見てて、技術的にどこまで可能でどこからが不可能になるのか確認したくなり、もう一度環境構築からやり直すことにしたんや。 Stable Diffusion の WebUI の Docker 版を入れて、イラストに特化したモデルを入れて、VAEで画像のボヤ

                                                  お絵描き趣味の人間が画像生成AIを使ってみた
                                                • AIが苦手な「手」を正確に描かせるための拡張機能「Depth map library and poser」の紹介【ControlNet】

                                                  の使い方をご紹介するという内容になっています。 Stable Diffusion系のモデルを使って美少女イラスト等を生成している方であれば、キャラクターの手や指がグチャグチャになってしまう問題に悩むことが多いと思います。この問題に関しては今まで多くの解決策が模索されていましたが今一つ決定打と呼べる案がありませんでした。 しかしそんな中で「ControlNet」と呼ばれる新技術が登場し、これを活用して手や指の問題をある程度解決する方法が考案されました。そして先日にはこの方法をStable Diffusion web UIで簡単に使える無料の拡張機能が登場したので、ぜひ情報を共有しておこうと思った次第です。 ここではその拡張機能「Depth map library and poser」について、インストール方法や使い方を解説していきますね。 ※2023/04/17追記: 最新のControlN

                                                    AIが苦手な「手」を正確に描かせるための拡張機能「Depth map library and poser」の紹介【ControlNet】
                                                  • Hirokazu Yokohara「AI動画で中年男性を美少女化。第2弾。おっさんの面影ないくらい顔を変更。前回よりも大幅にチラツキは減ったはず。もうすぐオッサンもなりたい顔になれるよ」

                                                    • ポーズを指定して画像を生成できる「ControlNet」の使い方【Stable Diffusion web UI】

                                                      を丁寧にご紹介するという内容になっています。 画像生成AIを使ってイラストを生成する際、ポーズや構図を決めるときは という方法が主流です。この方法ではかなりザックリしたポーズ・構図を指定することはできるものの、単語で指定することもあって思い通りのポーズを完全再現したイラストを生成するのはかなり困難でした。 ところが、つい先日その問題を解決する「ControlNet」と呼ばれる新技術が公開されて大変話題になりました。しかも速攻でStable Diffusion web UI用の無料の拡張機能も開発されて、誰でも簡単に使えるようになったとのことだったのでさっそく試してみることにしました。 ここではこのControlNetの使い方について解説していきますね。

                                                        ポーズを指定して画像を生成できる「ControlNet」の使い方【Stable Diffusion web UI】
                                                      • 【初心者向け】ControlNetでポーズを真似する方法。

                                                        こんにちは、画像生成AIでひたすら猫のイラストを生成している じょじお(@jojio‗illust)です。 Stable Diffusionユーザーは、思い通りのポーズを生成することがいかに難しいかを知っています。すべてがランダムです。 それを解決したのが、AIイラスト界の革命児ControlNetです。 この記事では、Controlnetの基本的な使い方について解説します。

                                                          【初心者向け】ControlNetでポーズを真似する方法。
                                                        • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第15回:SDXLでのControlNet活用方法その2+ 衣服を固定できるOutfit Anyone (西川和久) | テクノエッジ TechnoEdge

                                                            生成AIグラビアをグラビアカメラマンが作るとどうなる?第15回:SDXLでのControlNet活用方法その2+ 衣服を固定できるOutfit Anyone (西川和久) | テクノエッジ TechnoEdge
                                                          • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第八回:シンプルで高機能なSDXL専用インターフェースFooocusとFooocus-MREの使いかた (西川和久) | テクノエッジ TechnoEdge

                                                            生成AIグラビアをグラビアカメラマンが作るとどうなる? 連載記事一覧もっと簡単に高画質の絵を出したい!前回は画像生成AIなStable Diffusionを動かすにあたって、一番ポピュラーなインターフェースである AUTOMATIC1111のインストール方法と簡単な使い方をご紹介した。 AUTOMATIC1111はこれ一本で何でも出来る優れものなのだが、その分、設定項目が多く、ぱっと見、何が何だか分からない人も多いのではないだろうか。筆者も当初はそうだった。 AUTOMATIC1111の起動直後。正直これでは何から触って良いのかビギナーには分からない加えてStable Diffusion 1.5 (SD 1.5)標準Modelだと、画像生成を指示する呪文(Prompt)でいくら頑張っても大したものが出ないため、実用的に使うには別途Modelダウンロードする必要があるなど、初心者にとっては面

                                                              生成AIグラビアをグラビアカメラマンが作るとどうなる?第八回:シンプルで高機能なSDXL専用インターフェースFooocusとFooocus-MREの使いかた (西川和久) | テクノエッジ TechnoEdge
                                                            • Top | 謎の技術研究部

                                                              【WebUI Forge】embeddings(Textual Inversion)が使えない!認識しない!【stable-diffusion-webui-forge】2024-03-20

                                                              • Stable Diffusionの画像条件付けまとめ|gcem156

                                                                Stable Diffusionの画像生成を画像によって条件づける方法をまとめていきます。といっても実装とかを全部見たわけではないので、多少間違っている部分もあるかもしれませんが、まあイメージはあってるっしょ。 手法の分類 画像の情報をUNetのどこに与えるかによって手法を分類します。とりあえず5つに分けてみました Cross Attentionに与える:Prompt Free Diffusion, PFG, IP-Adapter Self Attentionに与える:Reference only, FABRIC Time embeddingに与える:UnCLIP, Revision その他の場所に与える:ControlNet, GLIGEN, T2I-Adapter LoRAの重みを学習する:HyperDreambooth あれ・・?もしかしてこの時点でたいていの人は脱落ですか。この辺の

                                                                  Stable Diffusionの画像条件付けまとめ|gcem156
                                                                • WebUIのAnimateDiffに複数画像のControlNetを適用する|TDS_

                                                                  タイトル通りの内容です 整備はしたいのですがまだまだ自分向けという感じのコードです WebUI1.6で動作を確認しています 今回は、hook.pyとcontrolnet.pyを修正しています。 また、リポジトリのTOPにあるCN_AD.jsonをトップディレクトリ(webui-user.batのあるところ) に置きます。 { "_is_CN_AD_on": 1, "input_images_pass": "imput_images", "input_images_number": 16 }_is_CN_AD_on:このモードを使用するかどうか input_images_pass:連番画像を入れるパスの名前 input_images_number:画像の枚数(フレーム数と同じ枚数にしか対応していません) 設定例設定は普通にUI上で行います。まずは同じ設定で動くか試してください。 主な注意点は

                                                                    WebUIのAnimateDiffに複数画像のControlNetを適用する|TDS_
                                                                  • GitHub - lllyasviel/ControlNet: Let us control diffusion models!

                                                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                      GitHub - lllyasviel/ControlNet: Let us control diffusion models!
                                                                    • ControlNet導入&使い方解説 3D人形・実写画像等から姿勢を入力し画像生成 webUI(1111)用

                                                                      Stable Diffusion web UI(AUTOMATIC1111)の拡張機能(Extension)「ControlNet」をインストールし、姿勢を棒人間や実写・二次元画像、3D デッサン人形などから指定して画像を生成する方法を解説します。 また、各種設定項目の解説と実際にやってみた所感を記しました。 うまくいくとこのくらいの精度で姿勢を制御できます。 以下の出力2枚、プロンプトは完全に同一です。 もはや言葉でhands upとか書かなくて良い時代!!!

                                                                      • アニメの常識、画像生成AIが変える可能性「AnimateDiff」のすごい進化 - 週刊アスキー

                                                                        原画と原画の間にあたる画像を複数枚入れることで、自然な連続性のある動きを作る。アニメの基本となる「中割」作業を画像生成AIが実現する可能性が出てきました。鍵になっているのは「AnimateDiff」という技術。8月に入って、様々なユーザーのアップデートによって機能拡張が進められています。それは完全な画像生成AIで作られるアニメの可能性を垣間見せるほどのものです。 16コマ/2秒の短い動画が生成できる AnimateDiffは7月10日に発表された、上海AIラボ、香港中文大学、スタンフォード大学の共同研究による技術。画像生成AI「Stable Diffusion」の仕組みとデータセットを利用しつつ、数百万本の動画を学習させた「モーションモジュール」と呼ばれるデータセットを別途に参照させることで、連続するキャラクターの動きを生成可能にするというのが基本原理です。生成できる時間は、16コマ/2秒

                                                                          アニメの常識、画像生成AIが変える可能性「AnimateDiff」のすごい進化 - 週刊アスキー
                                                                        • GitHub - Zuntan03/CharFramework: AI画像生成でキャラクターの扱いをしくみ化してフレームワークにしてみる

                                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                            GitHub - Zuntan03/CharFramework: AI画像生成でキャラクターの扱いをしくみ化してフレームワークにしてみる
                                                                          • 「ControlNet」の導入とその使い方【Stable Diffusion web UI】

                                                                            「Stable Diffusion(ステーブル・ディフュージョン)」では、プロンプト(呪文)を入力することによってさまざま登場人物を描いてもらうことができます。しかし、プロンプトを入力するだけでは自分の想像と違ったポーズをとった人物の画像が生成されてしまうことが多々あります。

                                                                              「ControlNet」の導入とその使い方【Stable Diffusion web UI】
                                                                            • ControlNet Poses | Upload ControlNet Poses & Maps

                                                                              • ControlNet用のポーズを簡単に作れる「Openpose Editor」の使い方【Stable Diffusion web UI】

                                                                                  ControlNet用のポーズを簡単に作れる「Openpose Editor」の使い方【Stable Diffusion web UI】
                                                                                • ポーズ指定ができるControlNetをAUTOMATIC1111版WebUIで使う方法|IT navi

                                                                                  2月10日に、人物のポーズを指定してAIイラストの生成ができるControlNetの論文が発表され、すぐにStable Diffusion用のモデルがGitHubで公開されて、ネットで話題になっています。 今回、このControlNetをWebUIに導入して使用する方法を紹介します。 (2023/03/09追記)WD 1.5 Beta 2用のControlNetの使用方法を追加しました。 (2023/04/18追記)WebUI用ControlNet 1.1のColabノートへのリンクを追加しました。 1.ControlNetの概要 ControlNetは、入力画像の構造を維持したまま別の画像に変換することができる画像生成AI技術です。 例えば、棒人間のような3Dモデルを使用して、キャラクターのポーズや構図を指定したイラストを生成したり、入力画像から輪郭線、深度、セグメンテーションなどの情報

                                                                                    ポーズ指定ができるControlNetをAUTOMATIC1111版WebUIで使う方法|IT navi

                                                                                  新着記事