ヒツジ / HITSUJI(AIイラスト・マンガ) @jikutakatsuo そういえばマンガのなかで「破綻した指は吹き出しや描き文字でかくせばいい」みたいに書いたけど、いちおう目立つところは自力で修正してます。たとえば、この表紙の右手ですね。マウスで頑張ってます。 ←左:修正前 右:修正後→ pic.twitter.com/OjDppnJuPW 2023-04-16 20:55:55
という(内容はどうでも良い感じの)四コマ漫画を、AIを使って勢いで描いてしまいました・・・ AIが囲碁の世界チャンピオンを倒してしまったレベルの社会にインパクトがある変化が、今まさにおきています。 だって絵心ゼロのこの私?が四コマ漫画を描けてしまったのですから。 対象読者 技術が詳しくない人にもわかるレベルの内容(にしたいです) (latent diffusionモデル、DDPMって何、実際の動かし方等の解説は行いません。他の記事に譲ります。) はじめに、背景説明 私は絵心ゼロです。子供のころの美術の成績は2をとりました。絵がかけない、絵を書く可能性とか努力を子供の頃に早々に見切りをつけて無駄な努力と放棄してしまった自分です。そんな自分がまさか忽然と四コマ漫画を書く(正確にはAIを使って四コマ漫画を書く)ことになるとはつい数日前までつゆとも思ってませんでした。 本当に人生何があるかわかりま
多くの方がAIを使った創作をするようになってきて、大変うれしく思っている葦沢です。 今回は、第2回日本SF作家クラブの小さなマンガコンテストにAIを使って制作した漫画を応募したので、どうやって作ったのかを解説します。 作品には、以下のリンクからどうぞ。 1. ストーリー私はAIを使った小説執筆は割と長くやっていますが、漫画制作は初めてでした。 原作は、同じ日本SF作家クラブが主催する「第2回日本SF作家クラブの小さな小説コンテスト」にて、既に私が書いた掌編があったので、それを使うことにしました。 AIを使ってストーリーを作りたいということであれば、AI BunChoやAIのべりすと、ChatGPTなど、色々なサービスがあるので、その中から自分に合うものを選ぶのが良いかなと思います。最近は、AIを編集者的なアドバイザーとして使うのが流行りですね。 2. コマ割りコマ割りは、枠の形と台詞を入れ
ポーズ制御技術である「ControlNet」は「Stable Diffusion」などの画像生成AIでイラストを出力する際、棒人間のような3Dモデル「ボーン」(骨組み)を組み合わせてイラストの構図やキャラクターのポーズを指定するもの。通常なら3Dモデリングのスキルが必要な場合がある。 Puton.さんはソーシャルVRサービス「VRChat」ユーザーで、自分の動きをそのままアバターに反映できるフルトラッキング環境を持っていた。そこで「アバターでControlNet用のポーズ指定ができるのではないか」と思い付いたという。VRChatで使うアバターをボーン姿にして動かせるようにし、そのシーンをControlNetに入力したのだ。その結果、ポーズを指定する画像を簡単に入手できるようになったという。アバターの作成手順は以下の通りだ。 アバター作成時の基本姿勢であるTポーズ(直立で両腕を横に伸ばした姿
AIでのイラスト生成時、キャラクターに自由なポーズを取らせることができる──そんな新技術が話題だ。その名は「ControlNet」。2月10日に論文が投稿されると、数日後にはStable Diffusion用WebUI向けの拡張機能がGitHubに登場。15日には、AIイラストに注目するTwitterユーザーの間で「革新的な変化」と話題になっている。 論文によれば、ControlNetはStable Diffusionなどの拡散モデルでテキストから画像を生成するときに、追加の入力条件を加えて生成結果を制御するニューラルネットワークという。Stable DiffusionとControlNetを併用することで、より容易に生成結果を制御できるとしている。
今月(2022年11月)24日、生成画像の品質を大幅に向上させたStable Diffusion 2.0(SD2.0)がリリースされました。 これを多機能と使いやすさで定評のあるWebユーザーインターフェイスのAUTOMATIC1111版Stable Diffusion web UIで使う方法について解説します。 また、他のおすすめのWebUIの使い方も紹介します。あまり複雑な機能を求めないのなら、こちらの方が起動や描画が早くて、よいかもしれません。 なお、SD2.0の概要などは、以下の記事を参考にしてください。 1.AUTOMATIC1111版WebUIにSD2.0を導入する方法 今回は、AUTOMATIC1111版Stable Diffusion web UIにSD2.0を導入するために、camenduruさんのGoogle Colabノートを使用します。 まず、以下のサイトにアクセス
$ "C:\~~~\stable-diffusion-webui\models\Stable-diffusion\v2-1_768-ema-pruned.ckpt"
記事の概要 環境 Stable Diffusion2.0のモデルデータをダウンロード 画像生成を試す 記事の概要 「stable-diffusion-webui」が「Stable Diffusion 2.0」に対応したので試したみた。 「stable-diffusion-webui」のインストール方法は下記記事に記載。 koubou-rei.com 環境 項目 情報 OS Windows11 GPU NVIDIA GeForce RTX 3080Ti Stable Diffusion2.0のモデルデータをダウンロード stabilityai/stable-diffusion-2 · Hugging Face ↑のリンクから 768-v-ema.ckpt をダウンロードして、 stable-diffusion-webui > models > Stable-diffusion に配置。 ht
Updated December 9, 2023By AndrewCategorized as Tutorial Tagged Install, SD 2 30 Comments on How to install Stable Diffusion 2.1 in AUTOMATIC1111 GUI Stable diffusion 2.1 was released on Dec 7, 2022. Those who have used 2.0 have been scratching their head on how to make the most of it. While we see some excellent images here or there, most of us went back to v1.5 for their business. See the step-b
Updated January 16, 2024By AndrewCategorized as Tutorial Tagged Beginner, Install 455 Comments on How to install Stable Diffusion on Windows (AUTOMATIC1111) We will go through how to download and install the popular Stable Diffusion software AUTOMATIC1111 on Windows step-by-step. Stable Diffusion is a text-to-image AI that can be run on a consumer-grade PC with a GPU. After this tutorial, you can
Updated December 9, 2023By AndrewCategorized as Tutorial Tagged Model, Txt2img, Use-case 42 Comments on How to generate realistic people in Stable Diffusion One of the most popular uses of Stable Diffusion is to generate realistic people. They can look as real as taken from a camera. In this post, you will learn the mechanics of generating photo-style portrait images. You will learn about prompts,
Updated March 16, 2024By AndrewCategorized as Tutorial Tagged ControlNet, Extension, Img2img 80 Comments on ControlNet: A Complete Guide ControlNet is a neural network that controls image generation in Stable Diffusion by adding extra conditions. Details can be found in the article Adding Conditional Control to Text-to-Image Diffusion Models by Lvmin Zhang and coworkers. It is a game changer. You
「Stable Diffusionでcheckpointをモデルとして利用したい」 「Safetensors形式のファイルをDiffusersで読み込めるモデルに変換したい」 このような場合には、この記事の内容が参考になります。 この記事では、safetensorsをDiffusersでモデルとして読み込む方法を解説しています。 本記事の内容 Diffusers用モデルへのsafetensorsの変換safetensorsの変換に必要なシステム要件safetensorsの変換方法safetensorsから変換したモデルの読み込み それでは、上記に沿って解説していきます。 Diffusers用モデルへのsafetensorsの変換 画像生成AIのStable Diffusionは、まだまだその勢いが止まりません。 そして、技術的にもどんどんと新しいモノが取り入れられています。 その一つにsa
AIコスプレイヤーについてAIコスプレイヤーは画像生成AIで作られた架空の人物画です。実際の人間と見間違えるほどクオリティが高い画像が作れるようになりました。 中でも、Kanyon Industries氏の作成した美しい生成画像は世界的に注目され、AIコスプレイヤーという言葉を世に広めました。 I've posted my latest and all my previous works for free at patreon!https://t.co/Y4XLYhcELf Thank you all for supporting my work, and if you'd like to sponsor, I'll update it with better quality work! pic.twitter.com/4CoaDlzLNe — Kanyon Industries (@au
ChilloutMixの作者によるYouTube配信 リアル系モデルChilloutMixの製作者TASUKU2023様が3月28日、YouTubeで初めてのライブ配信がされました。 配信ではChilloutMixのオススメの設定・パラメータ・プロンプト、誕生秘話、野望などについて語っています。 とてもおもしろいので、まだ見ていない方はぜひご覧ください! 動画の方法で作られた可愛い画像 配信で紹介された方法で作られた画像です。 こんな感じの美少女をAIで生成することができます。 ChilloutMixの作者によるプロンプトやパラメータ設定 配信で公開されたプロンプトをまとめました。 この設定を参考にしてみてください。 PositivePrompt (8k, RAW photo, best quality, masterpiece:1.2), High detail RAW color ph
chilled_remixとは? chilled_remixはStableDiffusionとよばれる画像生成AIで動作する生成モデルの一つで、リアルなアジア系美少女の生成を得意としています。以下の画像はchilled_remixを使用して私が作成した画像です。 リアルなアジア系美少女が得意なStableDiffusion生成モデルには、他に有名なものとしてChilloutMixやChilled_re_genericなどがあります。しかし、これらのモデルは現在商用利用ができません。 一方でchilled_remixは商用利用が可能なため、とても重宝されるモデルとして注目を集めています。 chilled_remixのライセンス表記 chilled_remixはChilled_re_genericのレシピ発案者として知られる鎖城郎郭様によって4/19に公開されました。生成した画像の販売だけでな
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く