API経由ながらStable Diffusion 3が利用可能に!今年、2024年2月24日に次世代Stable Diffusion、Stable Diffusion 3が発表された。いろいろな特徴があるのだが、画像品質の向上はもちろんのこと、Stable Diffusion (XL) が苦手だった文字 (但し日本語などは除く) にも対応し、早く使いたかったものの、まだ一般が試せる状態ではなかった。 ところがつい先日の4月17日、Stability AI Developer PlatformのAPI経由で利用可能となったので、使ってみたのが今回の内容となる。 APIを使うにあたって必要なAPI Keyは、Stability AI にアカウントを作ると用意され、自動的に24クレジットが付加される。1枚作って消費するクレジットは以下の通り。 Stable Diffusion 3は1枚6.5クレ
Stable Diffusionを代表とする画像生成AIにおいて、生成スピードを上げるにはより強力なGPUが必要だ。GeForceならRTX 4090のような最強のGPUが使えればいいが、誰もが手にできる価格とは言い難い。 となればビデオカードを複数枚使用してStable Diffusionの生成スピードが向上しないだろうか? と考えるのは自然な流れだが、今のStable Diffusionは複数のGPUを協調させて処理する機能は搭載されていない。 しかし、Stable Diffusion(とAutomatic 1111)をGPUごとに紐付けて起動することで、ビデオカードの数だけ並行して作業を進めることができる。玄人志向の製品紹介ページには、まさにそういった記述が存在する。 玄人志向公式サイトの製品紹介ページには、複数のビデオカードを使うとStable Diffusionの生成速度がほぼ倍
4月13日にv1.9.0リリース!現在v1.9.3へAUTOMATIC 1111は、v 1.8.0を軽く確認した以降、AUTOMATIC1111 Forgeばかり使っていて、ご無沙汰だったのだが、4月13日、Xのタイムラインにv1.9.0の文字が流れてきた。これは!とアップデートの内容を確認すると、主な部分は以下の通り。 メインUIにSchedulerの項目を追加 SDXL-Lightningモデル用にSgm uniform scheduler追加 コールバックを並べ替えるためのUIを追加 ご覧の様に意外と少ない(もちろんパフォーマンス向上や細かい修正なども含まれる)。ただ1の「メインUIにSchedulerの項目を追加」は非常に大きい改良だ。 以前この連載でも指摘していたが、AUTOMATIC1111のSampling methodは、SamplerとSchedulerを一つにまとめてお
Stability.AIは5月10日、同社の画像生成AI製品「Stable Diffusion 3」や「Stable Video Diffusion」などを、競合サービス「Midjourney」のように「Discord」上で利用することができるサブスクリプションサービス「Stable Artisan」の運用を開始した。 豊富な編集ツールも用意 これまで同社の画像生成AI「Stable Diffusion」シリーズは、ローカル環境にダウンロードして利用するのが主流(APIもあり)だったため、高性能のグラフィックボードが必要になるなど利用のハードルが他社サービスと比べて少し高かった。 今回発表されたStable Artisanに加入すれば、コミュニケーションプラットフォームDiscordを利用して、誰でもすぐに画像生成を楽しむことができるようになる。特に、これまでAPI経由でしか利用できなかっ
なお、ワークショップ内で使用するプロンプトは、受講者向けにドキュメントとして公開し、その場でコピペするだけで画像生成を体験できる、非常に簡単な仕組み。生成した画像はその場で自分のパソコンに保存できます。 第1期全6回を好評のうちに終了して先月から始まった第2期からは、これまで使っていたフロントエンドのAUTOMATIC 1111を、新しい技術が比較的早いタイミングで使えるComfyUIに切り替え、5月22日、オンラインにて開催いたします。 本ワークショップでは、高価なゲーミングPCがなくても自分で高速な画像生成ができるサービス「生成AI GO」のサーバをお借りしています。なお、生成AIGOはComfyUIには未対応ですが、第1期ワークショップで使用したAUTOMATIC1111には対応しています。 なお、今回お申し込みいただいた方は、前回分の動画アーカイブを視聴いただけます。 グラビアカメ
ControlNetはStable Diffusion WebUIの拡張機能の一つで、生成する画像をコントロールすることができます。 この記事では、Stable Diffusion WebUIで、ContorlNetをインストールする方法をまとめて紹介しています。 あわせてControlNetのモデルの1つであるCannyについて紹介します。 目次[非表示] 1.Stable Diffusionとは 2.Stable Diffusion Web UI(AUTOMATIC1111版・Forge版)とは 3.ContorlNetとは 3.1.Canny 3.2.Inpaint 3.3.Openpose 3.4.Reference only 3.5.Tile 3.6.Depth 3.7.Scribble 3.8.SDXL版ContorlNet 4.ControlNetのインストール方法 5.Co
https://mountainnavi.com/diffusion/2279/ こんにちは、画像生成AIの性能を最大限に引き出すための重要な要素、LoRA学習の設定値に焦点を当てたいと思います。設定 ... LoRA(Low-Rank Adaptation)はAIの追加学習ツールで、自分の好みの画像を学習データとしてAIを再学習させることができます。自分で作成した『Lora』を使用することで、特定のイラストのスタイル調整や、特定の人物やキャラクターで画像を生成することができるようになります。 好きな人物の画像を生成することも可能ですが、著作権や肖像権の問題には十分注意が必要です。 有名人やキャラクターの画像を学習させる場合は、公開せず、私的利用に限定してください。 LoRAに限らず、生成した画像全般についても同じ注意が必要です。 『Lora』モデルの特長 LoRAモデルとは、AIが生成す
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く