こんなノード画面 ComfyUIよくわからん(準備編)Comfy苦手…良く分からないからインストールもしてない…という方へ。 では、初期状態から生成ができるようになるまで解説しましょう! ComfyUIのインストール自体は色々な方が紹介しているので割愛しますが、私はStability Matrixを使ってます。 ComfyUIだけじゃなくAUTOMATIC1111(Stable Diffusion WebUI)も相変わらず使うので、モデルの共有ができて超便利。 多分この記事に従っていけばインストールできます。 私の画面はこんな感じ。 Stability Matrixはおすすめ。今熱いForgeも入ってます。ComfyUIのインストールが終わってWeb UIを起動すると、以下のような画面が表示されます。 Hello ComfyUI!ComfyUIの良いところの一つは、上述で公開したようなwo
DALL-E 3やStable Diffusionといった人気の画像生成AIの拡散モデルを簡素化し、生成される画像の品質を維持しつつ生成スピードを最大で30倍加速させる技術を、アメリカ・マサチューセッツ工科大学(MIT)の研究チームが公開しました。 [2311.18828] One-step Diffusion with Distribution Matching Distillation https://arxiv.org/abs/2311.18828 AI generates high-quality images 30 times faster in a single step | MIT News | Massachusetts Institute of Technology https://news.mit.edu/2024/ai-generates-high-quality-i
突然だが、上記はこの連載の第2回の冒頭部分だ。連載をはじめた当初は右も左もわからない状態だったので「Stable DiffusionはMacでは使えない」と断言してしまった。思い出すたびに冷や汗が出る。 とはいえご存知の通りStable Diffusionを動かすのにNVIDIAビデオカード搭載のWindows機が向いているのは事実なので、これまではすべて新規購入したゲーミングPCで作業することになんの不満も感じていない。 だが、前回紹介したStable DiffusionのUI環境のインストールや更新がワンクリックで可能になる「Stability Matrix」を使えば、PythonやPipのバージョンといった難しいことを考えなくてもMacで画像生成環境を作れるのではないかと考えた。 お詫びから7ヵ月、ずいぶん遅くなったがようやく伏線回収である。 Stability MatrixでM1
AIイラストが理解る!StableDiffusion超入門【2024年最新版】A1111、Forge対応 こんにちは、2022年10月からAIイラストの技術解説記事を連載してます、賢木イオです。この記事は、これまでFANBOXで検証してきた120本(約70万文字)を超える記事をもとに、2024年春現在、画像生成を今から最短距離で学ぶための必要情報をまとめたメインコンテンツです。 これから画像生成を学びたい初心者の方や、手描きイラストにAI技術を取り入れてみたい方が最初に読む記事として、必要知識が網羅的に備わるよう解説しています。素敵なイラストを思い通りに生成するために覚えるべきことを紹介しつつ、つまずきやすいポイントや参照すべき過去記事、やってはいけないことなどを紹介していますので、最初にこの記事から読んでいただくとスムーズに理解できるはずです。 解説役は更木ミナちゃんです。よろしくお願い
Animagine XL V3が出始めた辺りから、特定のプロンプトを入力すするとアーティファクトが出てくると言う話がポツポツと聞こえてきました。アーティファクトって言われると古代兵器を思い浮かべてしまうわけですが、ここでいうアーティファクトというのはノイズではないけれどなんか変な画像という意味ですね。 細けぇ事はいいんだよ解決方法だけ教えろという方は最後の方にある説明を読んで下さい。 入力するプロンプトの順番や強度を入れ替えると出てきたりするが、発生条件が解らないという話で、どうにも雲をつかむような話でしたが、原因を突き止めたという話が回ってきました。 さて、OOOの破綻をきっかけに色々調べたところ、SDXL系のanimagine3等で発生している破綻について原因が判明しました。 結論はEnable emphasis a1111の強調計算で不具合が起きてます。 修正案1 setteing内
StreamDiffusionを外部プログラムから利用する(2)FastAPIによるAPIの実装第1回に続き、サーバ編です。FastAPIによるサーバ実装はLLMでも手がけていて、難しくはありません。さらにDiffuserによる画像生成も基本的には画像フォーマットをpillow形式で行えば通信時のバイトデータの変換もpillowのみなので単純化出来ます。一方でStreamDiffusionでは画像生成が極めて高速で行えるため、通信によるオーバーヘッドが性能に大きな影響を受けることがわかりました。今回はasogサーバとしてFastAPIを使用したサーバでStreamDiffusinを動かす例です。通信時の入出力画像ファイルの形式としてpillowとOpenCVが選択出来るように実装しています。なお、次回は3回目としてTCP/IPによる高速通信の例を記事にする予定です。その後の試験で通信フォー
Stability MatrixでPCの状態をキープ!Stable Diffusionを手軽に導入しよう♪ 最近、GPUを搭載したPCを使用する機会に恵まれ、自分も画像生成系AIのStable Diffusionを使用することにしてみました。そこまでの興味というわけでもないのですが、自分が最も不得意とするCGという分野がお手軽に楽しめるということと、ガチャのような体験をしつつ出来上がる作品を待つというのがわりと面白いものだなと思っていました。 といっても、あまりPCの環境をぐちゃぐちゃにしたくないなあという思いもあり、これまではDocker環境を使用してStable Diffusion(厳密に言えばStableDiffusion Web UI Automatic1111)を使用していました。確かにDockerは普段使っていますし、環境もコンテナを消せば何事もないというのは魅力的なのですが、
1~8ステップくらいで画像生成ができるようになるLatent Consistency Modelをつくります。まずはLatent Consistency Modelの説明をし、次に蒸留体験記を書いていきます。 性能は微妙ですが、個人的にはうまくいくことが分かっただけで満足です。生成なんてしないしー。 拡散モデル 目を瞑って想像してみてください、あなたは深い森の中に迷い込んでしまいました。その森には1時間に1回の頻度で鐘を鳴らす教会があり、あなたはその音を頼りに教会へ向かうことになりました。果たしてあなたは何時間で教会に到着するでしょうか・・・。 さて、ここで歩くスピードとか体力は無視して、シンプルに鐘の音から方向が正確に予測することができるかを問題とします。1回の鐘の音を頼りにどんどん進んでしまうと、見当違いの方向に向かってしまいたどり着かないかもしれません。しかし何回も音を聞きながら慎重
こんにちは、肌寒い日が続くと南の島の暖かい海に行きたくなる菅野です。 AWS上で、 様々なAIモデルを利用できるようになるサービス、Amazon Bedrockがリリースされました。 Bedrockでは今までのブログで紹介してきた、テキスト生成以外にも、画像生成に利用できるモデルStable Diffusionも利用可能になっています。 Stable Diffusion自体はOSSとなっているので無料で利用できますが、自身のマシンにインストールして動かす必要があり、動かすマシンにはある程度の性能のGPUも必須になってきます。 手軽にStable Diffusionをオンデマンドで利用できるのは今までにないメリットなのではないでしょうか? 今回は、BedrockのClaudeV2モデルを用いて作成したプロンプトを使って、Stable Diffusionで画像生成をしていこうと思います。 Be
また、Emiと同時にクリーンな画像生成AI、Manga Diffusionの概念実証版も公開します。この画像生成AIはパブリックドメインの画像や著作権者から学習を許可された画像だけを学習しています。 (以下、画像生成AIのことをモデルとも呼びます。) Emiの特徴1.AIアートに特化このモデルは、アニメやマンガのようなAIアート生成に特化しています。GMOインターネットグループが提供する「ConoHa byGMO」のトライアル版の採用により最先端の開発機材NVIDIA H100と、画像生成Stable Diffusion XL 1.0、 AI Picasso社のノウハウを用いて高品質な画像が生成されるように尽力しました。参考として簡単な生成例を以下に紹介します。 比較のために、これまでのモデルと今回のモデルでほぼ同じ内容を生成した例を示します。これまでの生成画像よりも約2倍高精細になり、最
「Google Colab」で「Pixel Art XL」を試したのでまとめました。 1. Pixel Art XL「Pixel Art XL」は、「SDXL」にピクセルアードを学習させたLoRAモデルです。 2. Colabでの実行 Colabでの実行手順は、次のとおりです。 (1) 新規のColabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」を選択。 (2) パッケージのインストール。 # パッケージのインストール !pip install diffusers !pip install invisible_watermark transformers accelerate safetensors(4) パイプラインの準備 from diffusers import DiffusionPipeline import torch # パイプラインの準備 pip
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く