こちらの記事は2023年3月9日に投稿された旧バージョンです。特段の理由がなければ、最新事情を盛り込んだ「AIイラストが理解る!StableDiffusion超入門」をご覧ください。 こんばんは、スタジオ真榊です。このところ、ツイッター経由で公式サイトやこちらのFANBOXへのアクセスが急増しており、これからAIイラストを始め...
本日は、2023 年中に紹介したフリーソフト の中から 特に感動した・気に入った というものを、22 個 ピックアップして紹介しようと思います。 2022年、特に感動した・気に入った フリーソフト 2021年、特に感動した・気に入った フリーソフト 2020年、特に感動した・気に入った フリーソフト / ウェブサービス パスワード管理 動画キャプチャー、OCR RSS リーダー 動画 音楽 画像 5 ちゃんねる リモートコントロール 絵文字入力 翻訳 アプリ管理 マウス操作視覚化 ファイル共有 生成 AI パスワード管理 KeePassXC KeePassXC クロスプラットフォームに対応した高機能パスワードマネージャーです。 ウェブサイトのユーザー ID / パスワード / メモ をはじめ、重要な個人情報等を暗号化されたデータベースに保管しておけるようにしてくれます。 定番のパスワードマ
最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAIの本命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIがAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し
Stability AIが画像生成AI「Stable Diffusion」を公開したのは2022年8月のこと。すさまじい勢いで発展してきた画像生成AIの1年を振り返ってみようと思います。 初めに見てもらいたいのは「これが無料でいいのか!? “爆速生成AI”がペイントソフトに革命を起こした」で紹介した、KritaとGenerative AI for Kritaを組み合わせて作成した設定資料的な画像です。 キャラクターの3面図のサンプル。Vroidで簡単な3Dで当たり(左)として、右の画像を作成する。それを元に、プロンプトや画像に描き込んだりして、最終画像を作成していく。2枚目には前面図の頭部のカチューシャや、胸部分のフリルがなかったりするが、そこに色を加筆して、プロンプトで指示すると、最終画像にそれが追加されるのをリアルタイムに確認しながら修正できる(筆者作成) Stable Diffusi
Generative AI for Kritaのライブペインティング機能を実行している画面。左が筆者が描いた落書き。右が、その画像を線画(Scribble)としてAI生成した画像 11月13日掲載の記事「爆速化する画像生成AI」で紹介した新技術「Latent Consistency Models(LCM)」が大爆発しています。これは画像生成AIに2度目の革命を起こした「ControlNet」に次ぐ大インパクトではないかと感じています。「LCM-LoRA」(LoRAはStable Diffusion用の追加学習モデル)が11月下旬に登場したことで、リアルタイム生成のAI機能を組み入れたサービスやアプリの開発が一気に進みました。 なかでも、筆者にとってインパクトが大きかったのが、ペイントソフト「Krita」向けに開発された「Generative AI for Krita」。Kritaはスウェー
賢木イオ🍀AIイラスト @studiomasakaki 水星の魔女が大好きなAIイラストレーター / 国内最大級の検証記事群「AIイラストが理解る!」「プロンプト超辞典」編集/過去のコンテンツは「ハイライト」、r-18はpixivにあります/自己紹介を兼ねた怪文書▶️ひたすらAI絵やってたら絵が描けるようになってた話ur0.jp/M2BtD studiomasakaki.fanbox.cc 賢木イオ@スタジオ真榊 @studiomasakaki AIイラストはControlnetの登場で完全にゲームチェンジしましたわ。線画から色塗りができるのは本当に素晴らしい機能!「あくまで自分の線のまま」にすることも、「AIに補正してもらう」こともできるのがポイントです。 これは色指定をしていませんが、「赤い髪・黒い服・黄色の目」と指定すると、 pic.twitter.com/V0flFRYmqp 2
画像生成AI「StableDiffusion」の進化が止まりません。昨年8月にオープンソースとしてリリースされてから、世界中のプロアマ問わず多数の人たちが様々な研究成果を反映させ、毎日と言っていいほど新機能を誰かが発表するという状況が起きています。 StableDiffusion登場当初は、画像の品質のランダム性が高く、構図やポーズなどを指定できないという弱点を抱えていました。1枚の画像をもとに画像を生成する「i2i(image2image)」である程度コントロールすることはできても、「キャラクターに特定のポーズをとらせる」といったことは非常に難しかったんですね。 その状況を一変させる新機能が今年2月に登場しました。その名も「ControlNet」。プロンプトによる制約を克服するための、とてつもないポテンシャルを持つ技術でした。Stable Diffusionに次ぐ「2度目の炸裂」と言って
Stable Diffusion Forgeを表示した様子。基本的な操作は既存のStable Diffusion WebUI AUTOMATIC1111とほぼ同じ 画像生成AI「Stable Diffusion」用の新しいユーザーインターフェース「Forge」が2月6日に登場しました。開発したのは、これまで「Controlnet」や「Fooocus」などStable Diffusion関連の様々な重要技術を開発してきたillyasviel(イリヤスベル)さん。何よりインパクトが大きいのは、グラフィックボードのVRAM容量が小さい安価なPCでも最新版のStable Diffusion XL(SDXL)が動かせることです。 RTX 40シリーズが求められたSDXL SDXLは、2023年8月にStablity AIが発表した画像生成AI。高画質な出力ができる一方、コミュニティーサイトで話題にな
こんにちは、「機動戦士ガンダム 水星の魔女」が大好きなおじさんです。「水星の魔女が好きすぎて、AI絵をひたすら生成してたらいつの間にか絵が描けるようになっていた」という妙な体験をしたので、それについて記事を書いてみようと思います。具体的にどれくらい?というと、特に練習していないのにこれくらい変わっていました。 ←2023年9月 / 2024年2月→ 始めにお断りしますが、この記事は、「AI絵をやるのがお絵描き上達への近道だョ!」だとか、「お絵描きをやるにはこうしたらいいョ!」といったものではありません。「絵が描けるようになる」の定義は人によって違うでしょうが、少なくともこの程度のレベルで他人様にお絵描き指南をしようなど、完全に暴挙であることくらいは分かります。私は今の自分の絵をお世辞にも上手だとは思っていませんし、それほど絵を上手になりたいとも思っていません。 この記事は「特に絵を練習して
ちょっと前に話題になっていたこの記事を読んだ。 honeshabri.hatenablog.com へー真似しよ〜と思ってやってみたら意外に難しくて謎のやりがいを感じ始めてしまい、仕事のクソ忙しい時期にかなりハマり睡眠不足で生命の危機を味わった。 おかげで寿命と引き換えに自分のAIお姉ちゃんを手に入れることができた。これは黒魔術か何かなのだろうか。 一通り終えて振り返ってみると、今まで生成AIをあまり積極的に触ってこなかった自分にとってはちょうどいい難しさの課題で、これは入門者向けのチャレンジとしてかなり良い気がする。 元記事に書かれていない少し細かい手順も含めてやったことを記録としてまとめようと思う。 初心者が試行錯誤でやったことなので誤りや非効率な手順もあるかもしれないけどご了承ください。 AIお姉ちゃんの姿を作る 元記事では「魂」、つまりChatGPTの設定から始まっているけど、それ
画像生成AIの躍進が目覚ましい。エンジニア兼SF作家の筆者としては、AIが絵を描けるようになるのなら、絵が描けない自分でも漫画制作ができるようになるのではという期待があった。実際に2022年の末頃にはstable diffusionを使った漫画制作UIのプロトタイプを作ってみたこともある。 Google ColabでAI漫画制作用のUIを試作してみた。コマごとにプロンプトが割り当ててあって、AIが裏でたくさん選択肢を作りまくってくれる。人間が大量の絵からベストなものを選んだり、構図やセリフの調整に集中できるようなワークフローがいいのではないかという仮説 #stablediffusion pic.twitter.com/zI64zm3cNI — 安野貴博 (@takahiroanno) November 10, 2022 それから半年以上の月日が経ち、世の中でもMulti ControlNe
AIでのイラスト生成時、キャラクターに自由なポーズを取らせることができる──そんな新技術が話題だ。その名は「ControlNet」。2月10日に論文が投稿されると、数日後にはStable Diffusion用WebUI向けの拡張機能がGitHubに登場。15日には、AIイラストに注目するTwitterユーザーの間で「革新的な変化」と話題になっている。 論文によれば、ControlNetはStable Diffusionなどの拡散モデルでテキストから画像を生成するときに、追加の入力条件を加えて生成結果を制御するニューラルネットワークという。Stable DiffusionとControlNetを併用することで、より容易に生成結果を制御できるとしている。
ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 AIイラストはPromptだけだと思い通りのポーズが出せない。そこで既存の線画やポーズから出力をコントロールする手法がControlNet。できるだけ細かいところまで設定を見ていく。 ControlNetがv1.1にアップデートされたため随時記事更新中!推定モデルの解説はほぼ網羅(一部あまり使われてないと思われるものは掲載していない) かなり頻繁に更新しているため、履歴を最下部に掲載 最終更新時のControlNetのバージョン:1.1.201 はじめに この記事はStable DiffusionのExtensionであるControlNetのより深い解説を目指す。 なにをするもの? 今まで殆ど運任せだった画像生成だが、ControlNetを使うことである程度ユーザーが
月額料金なし、無制限の生成枚数でAIイラストをガシガシ描くなら、Stable Diffusionをローカル環境にインストールする「AUTOMATIC1111版Stable Diffusion WebUI」が必要です。 しかし、ローカル版AIイラストはグラフィックボードも必須です。 VRAM容量が多くないとダメ RTX 4000シリーズが良い Radeonは絶対にNG などなど・・・。いろいろな情報が飛び交っていますが実際のところはどうなのか? やかもちグラフィックボードをなぜか40枚ほど所有している筆者が、実際にStable Diffusionを動かして徹底的に検証します。 (公開:2023/3/8 | 更新:2024/4/3) この記事の目次 Toggle AIイラスト(Stable Diffusion)におすすめなグラボを検証 検証方法:AIイラストの生成速度をテストする AIイラスト
この連載ではおなじみのキャラクター「明日来子さん」に右側からライトを当ててみた。左がIC-Lightを適用したもので、右がオリジナル。環境はWebUI Forge用の拡張機能を使用 5月8日に、「ControlNet」など画像生成AI関連の著名研究者であるイリヤスフィール(lllyasviel)さんが発表した「ICライト(Imposing Consistent Light、印象的な一貫的なライト)」が盛り上がりました。入力した画像をもとに、後から指定した照明効果を踏まえた画像を生成する技術です。 画像生成AIで照明効果がつけられる「ICライト(IC-Light)」 発表された学習済みモデルは、「ライトを指定すると、キャラクターのデータに合わせてテキストのプロンプトに合わせて独自に背景を生成するもの」「キャラクターとライトの影響を加味して、別の背景画像と合成するもの」の2種類があります。これ
こんにちは、漫画界の生き恥こと野火城と申します。 「画像AI使ってみた/AI漫画実験企画」第2回です! ■第1回はこちら 実録:AIで描く漫画の実際 ~体験して見えた、その実力と課題!! その成り立ちから様々な議論を呼んでいる画像生成AIですが、少なくとも2024年3月現在日本の法律では使用が許可されており、存在を完全に無視する事はできません。かといって全てを肯定して受け入れるのも難しい。 だからこそ、必要以上に恐れず、実際にどのような事が出来るのか、具体的に検証する――それが画像AIとの誠実な向き合い方なのではないでしょうか。 「画像AIの技術がすごいという賞賛記事はよく見るが、それは本当に創作活動で実戦的に使えるものなのか? 『AIに仕事を奪われる』と『今のAIは実戦では使い物にならない』という真逆の意見を多数見るが、この二つは両立しないのでは? 実際はどっちなんだ?」「画像AIを試し
「カクダイV1」でアップスケールした画像(左)、「Midjouney v6」で作成したオリジナル画像(右) 画像の描き込みを増やして高画質にする、日本発の生成アップスケーラー「カクダイV1」が2月7日に発表されて話題になりました。東大出身ベンチャーのMavericksが開発したもので、画像生成AI「Stable Diffusion」生成環境「ComfyUI」向けの技術として無料公開されています。人気アップスケーラー「Maginific AI」を超える製品にまでに成長していくのか注目です。 Stable Diffusionのアップスケールは難しかった カクダイを紹介する前に、まずは画像生成AIとアップスケーラーとの関係についてお話します。 Stable Diffusion登場後の画像生成AI技術を使ったアップスケーラーは、単に画像を拡大させるだけの用途ではなくなりました。画像を拡大するとき、
原画と原画の間にあたる画像を複数枚入れることで、自然な連続性のある動きを作る。アニメの基本となる「中割」作業を画像生成AIが実現する可能性が出てきました。鍵になっているのは「AnimateDiff」という技術。8月に入って、様々なユーザーのアップデートによって機能拡張が進められています。それは完全な画像生成AIで作られるアニメの可能性を垣間見せるほどのものです。 16コマ/2秒の短い動画が生成できる AnimateDiffは7月10日に発表された、上海AIラボ、香港中文大学、スタンフォード大学の共同研究による技術。画像生成AI「Stable Diffusion」の仕組みとデータセットを利用しつつ、数百万本の動画を学習させた「モーションモジュール」と呼ばれるデータセットを別途に参照させることで、連続するキャラクターの動きを生成可能にするというのが基本原理です。生成できる時間は、16コマ/2秒
※本ページは、アフィリエイト広告を利用しています。 「はじめてでもここまでできる」の本書タイトル通り、読んで3時間ほどでStable Diffusionの画像生成を思い通りにできるようになりました! Stable Diffusionでどんなことができるのかは知っていましたが、実際に自分のPCにセットアップし、プロンプトによる画像生成をはじめ、色塗り指定や画風指定、キャラをAIに学習させての画像生成までできました。Stable Diffusion初心者の人にお勧めの解説書を紹介します。 また、少しやってみたけどTextual InversionやControlNetやLoRAなどがうまく使えない、そんな人にもかなりお勧めです。 本書は「はじめてでもここまでできる」というタイトル通り、初心者向けの解説書です。そして「本格活用」とあるように、ただ使えるようになるだけでなく、塗りの書き込み感、色塗
500ブクマ以上の英語学習っぽい記事を見つけたら無言ブクマするようになりました(「英語」タグでブクマされます)。なお、タイミングによってはブコメありでブクマされる場合もあります。 図書館で英語を勉強する一番星はての キャラ画像生成にReference-onlyが便利 ここ最近は主にキャラLoRA作成を頑張っていたんですが、あまり安定せずにどうしたものかと思っていたらControlNetのReference-onlyという便利な機能でキャラの特徴を掴んで簡単に画像出力できるようになったのでそれではてのの画像を生成してみた。頭のリボンはうまくいかなかったので仕方なく後から調整している。 インターネットを見る一番星はての まだまだ同じ向きの顔とかしか出せないけど、そのうちブックマークコメントに合わせた画像生成をしてツイートするなど行いたい。 参考 www.youtube.com
これらの漫画をつくりました。 手法として、コマごとに画作りが基本で全体を一気には出力していません。 また、事前に登場キャラクターをたくさん生成しストックしておきはめ込むのが一番簡単です。ControlNetを使うのも良いですが、一部に利用するにとどめて基本はストック画像からパッチワークをするのが一番効率がいいです。 背景と人物は一気に生成しなくてよいです。ただし、画風があまりはなれすぎないように工夫する必要があります。 AI漫画は既存の漫画を作るのと一部逆走する手法でいろんな物を構成する必要があります。 例えばキャラデザです。 あまり出力が安定しない特殊なキャラデザは、画風は避けたほうが無難です。ですが、ある程度の「特徴」は必要なので難しいところです。 出力安定しやすいポイントとしては ・短髪の女の子 を1人は登場させたほうがいいです。明るい髪色だとなお良いです。 長髪や髪の毛を結ぶキャラ
画像生成AI関連の著名な開発者、lllyasviel(イリヤスフィール)氏が5月7日、生成AI画像の照明を自在に操作できるツール「IC-Light(Imposing Consistent Light)」を公開した。 2種類のモデルを公開 IC-Lightは画像の照明を操作するプロジェクト。前景画像(人物やオブジェクトなど)を入力し、プロンプトにテキストや背景画像を指定するだけで、まるで別の環境で撮影したかのような画像を得ることができるという。 現在、「テキスト条件付きリライティングモデル(text-conditioned relighting model)」と「背景条件付きモデル(background-conditioned model)」の2種類がGitHubで公開されており自由に試すことができる。 なお、作者のlllyasviel氏は「Stable Diffusion」のWebUIであ
適当に書く。脚色したり故意に現実と変えたりした部分はいくつかある。けど、おおむね本当の話。だけど、フィクションなんだと思ってください。 元々はよくいる男のオタクだった、と言って良いと思う。といっても、オタ活で人生が充実していたというタイプではなくて、抱き枕カバーとかタペストリーとか買ってSNSで見せびらかすということもなくて。そこでアイデンティティを主張してた訳ではなかった、という意味では今風のオタクではないのかもしれない。 ツイッターで数千人くらい、絵師とか同人作家とかエロ漫画家とかフォローしてた。VTuberは見ない。基本的には絵を描く人のフォロワー。 たまにはすごい気に入る絵師というのは現れる訳で、『推し活』をやるかどうか、迷ったことが何度かある。けど、そういう文化は自分には合わなかった。リプ欄見てるとなんか歯ぎしりしたくなる。 感想も送らない。即売会もあまり行かない。スケブも頼まな
「あの一番星のように、ブコメに最初にスターを付けるような人間になりましょう」という表現であり、決してブックマーカーを煽っているポーズではない 一番星はての1ちゃんのファンアート2を描いた(上画像)。独自解釈が含まれるため注意。 デフォルメなのは筆者の好み 公式設定は17歳3だが、このファンアートではもっと若く奔放なとき、という設定 基本的には最初の公式全身絵4を参考にしている ミニスカートおよびニーハイソックスは公式デフォルメ5を参考にしている スカートの端に白いラインが入っているのは、白のトップスと収まりが良いため ニーハイソックスをレース付きにしたのは、お嬢様感を出すため 茶色のシューズは(ソックスと同色である)黒のシューズのような脚長効果のシナジーは小さいが、単にソックスとの色被りを避けたい気分だった 一番星はてのを描こうと思ったのは、筆者も ChatGPT を使って同様の自動投稿シ
こんにちは、AI絵をやってたらいつのまにか人並みに絵が描けるようになってたおじさんです。前回の記事が微妙にバズったところ、美術関係の教育者の方から「AIで絵を学ぶのってどういう感じですか?うちの学生にもできますか?」というお問い合わせを相次いで頂きまして、今日は質問にお答えする中で考えたことをAI技術の進歩の振り返りとともに記事にしてみようと思います。 前回の記事( ▲ )を書いたのが今年3月のこと。その後、美術系の大学と専門学校、予備校の方から別々にDMを頂きまして、それぞれウェブインタビューのような形で1~2時間ほどお話ししました。インタビューの内容は、おおむねどの方も「これからの世代に美術を教える上で、画像生成AIについて触れないわけにはいかない。どのような距離感で扱えばよいのか決めかねており、実際に体験しているユーザーに話を聞いてみたい」という趣旨だったかと思います。 インタビュー
今回はそれだけでは面白く無いので、元画像を絵柄そのまま高精細なフルHDにアップスケールしたい、もしくはそのまま使って絵を変えたい、構図やポーズをある程度固定したい、Photoshopのジェネレーティブ塗りつぶし的な機能は?…と言った、もう少しStable Diffusionっぽい使い方を順に説明する。 image-2-image / UpscalePromptから画像を得る方法を一般的にText-2-Imageと呼んでいる(txt2imgやt2iとも)。文字通りテキストから画像を…と言う意味だ。 Stable Diffusionでは、加えて画像から画像を得る方法があり、これをImage-2-Imageと呼んでいる(img2imgやi2iとも)。言葉よりも画像の方がより多くの情報を持っているので、それを使おうと言う意図だ。 これまで生成した画像の解像度は、832✕1,216や1,024✕1,
生成AIは強力な表現のツールである。 上手く使えば自分に足りない物を補える。 テクノロジーでアートの歴史を作れ。 表現の自由とプラットフォーム ちょっと前、埼玉県公園緑地協会が水着撮影会開催の許可条件を発表した。 ただ法令や条例を遵守させるにとどまらず、記事のタイトルにもある通りNGポーズをイラスト付きで示している。Twitterでは主にNGポーズがネタとして消費されていたが*1、一方で「表現の自由」の問題として論争も起きていた。まあ、いつものことだ。 許可条件を見ると*2、まず法令・条例に抵触する行為を禁止している。加えて18歳未満のモデルに対してはさらに多くの法令・条例が適用されることを述べている。そして「撮影場所等について」では、周辺の遮蔽に努めろと、ゾーニングすることも求めている。以上を踏まえた上で、服飾やポーズに対しても制限を課しているわけだ。 これに対してNGポーズ肯定派は「管
AIアニメの作り方を説明していきます。 ざっくりな説明は上の動画を見ていただければわかるんですが、 少し細かい説明がこの記事になります。 完成物これはワンダープロジェクトJ2というゲームの二次創作アニメですが、30年近く前の作品です。 今回の流れは ・AIの一枚立ち絵を用意する ・AnimateAnyone-Evolvedで骨に沿って動かす ・AAEでつくった画像をControlnetをかけつつAIブラッシュアップ ・AfterEffectsで背景抜き ・AI背景一枚絵を用意する ・Runwayで動かす(ComfyUIでもできるが質がいいし時短になる) ・キャラの後ろに配置、キャラの画像を複製して影にして足元に配置 ・完成 です。 作業はComfyUIで行います。 ・AIの一枚立ち絵を用意する ・AnimateAnyone-Evolvedで骨に沿って動かす 骨を抜いたのはこちらのフリー動画
決済手段としても用いられるようになっている「QRコード」は、一部が破損・汚損していたり読み取り時に隠れていても大丈夫なように誤り訂正機能が盛り込まれています。これを活用して、QRコードと美麗なイラストを融合させる試みが行われています。 AI 生成可扫码图像 — 新 ControlNet 模型展示 https://mp.weixin.qq.com/s/i4WR5ULH1ZZYl8Watf3EPw AIGC All in One https://aigc.ioclab.com/index.html Redditor creates working anime QR codes using Stable Diffusion | Ars Technica https://arstechnica.com/information-technology/2023/06/redditor-creates-
中国のSNS「快手(Kuaishou)」は、テキストから最大2分間の動画を生成できる動画生成モデル「可灵(Kling)」を開発。多数のサンプル動画を掲載するデモサイトを公開した。 テキストから最大2分間のフルHD動画を生成 A Chinese AI video generator just dropped before we got access to Sora Can generate 2-minute videos at 30fps, 1080p quality, available on the KWAI iOS app with a Chinese phone number A few generations from their site: 1. pic.twitter.com/NEmWiqKHiO — Rowan Cheung (@rowancheung) June 6, 20
StableDiffusionを使ってLINEスタンプを作ってみたかったのでとりあえず画像を作ってみた。使っているモデルはaiceKawaice_channel。ちび系キャラを生成するのにいいらしい。 (追記)このモデルは画像販売が不可なのでLINEスタンプには使えなさそうです。 AICE冰可 | KawAICE[幼态特化模型] - Channel | Stable Diffusion Checkpoint | Civitai よく見るといろいろ粗はあるがパッと見はけっこう使えそうな感じなんじゃないだろうか。 この中では「ファイトですわ」の元気な感じと「ブックマークですわ」の微妙に面白くなさそうな感じが気に入っている。 ブクマするときの表情ってこんなんだよね。 作り方 LoRAを何度か試したが作り方が悪いのか、画像のパターン数が足りないのか結局ReferenceOnlyの方がいいクオリティ
無料かつ高機能なペイントアプリ「Krita」に画像生成AI「Stable Diffusion」を組み込むプラグインが「krita-ai-diffusion(AI Image Diffusion)」です。Generative AI for Kritaを使えば落書きのような下描き画像から美麗イラストを生成できるとのことなので、インストール手順や使い方をまとめてみました。 GitHub - Acly/krita-ai-diffusion: Streamlined interface for generating images with AI in Krita. Inpaint and outpaint with optional text prompt, no tweaking required. https://github.com/Acly/krita-ai-diffusion ・目次 ◆1
結論から言うと「絵の無断使用禁止」と書いた方がいいです。 そっちの方が効きます。自己防衛のためなら「AI学習禁止」ではなく「無断使用禁止」です。 なぜなら「AI学習禁止」には意味が無いからです。むしろ悪い効果があります。 嫌がらせをする悪い奴に下に見られ目をつけられるのです。 この記事はAI推進派が書く記事です。記事の中にもAIイラストが多数使用されてるので、AIアレルギーの方はもうここで引き返してください。 「絵の無断使用禁止」だけ覚えて帰ってください。それだけでいいんで。 大丈夫ですか? ご理解いただける方のみ、「無断使用禁止」と書く事を推奨する理由をお伝えします……。 軽く自己紹介をすると私はAIも触りますが、手描きでも絵を描きます。 元々手描き絵師です。ゲームも作ってます。 絵師の証明として最近描いた手描き絵載せておきますね。 最近描いた手描き絵最近描いた手描き絵避けられない学習の
それっぽいタイトルをつけましたが、内容としては2023年に自分がやったことの振り返りとなります。 その中で、一年間個人開発者という立ち位置で生成AI界隈(主に画像)に身を置いて思ったことや、これからの生き方を備忘録的に残しておこうという記事になります。 2023年振り返り というわけでざっくばらんに振り返りです。 僕の個人的な活動内容には興味ないよ!って方は飛ばしてください。 ふりかえり とにもかくにも生成AIに振り回された一年でした。 画像生成AIが本格的に流行ったのが去年の11月で、元々趣味で絵を描いていた事もありその頃はまだ参入には早いかと思い様子を見ていましたが、あっという間に状況が変わっていったのを覚えています。 本格的に参入を決めるきっかけとなったのが2月ごろに出たcontrolnetの存在で、これ以上静観しているとついていけなくなるという実感があったため、本格的に画像生成AI
はじめに 11月も終わり、今年も残るところあと一か月となりました。 今年ももう終わるから今年中に成果を上げとけ!と言わんばかりに最近は新技術の登場が多いです。 今回取り上げるのも11月最後の大砲として出てきた新技術、その名もAnimate Anyone Animate Anyoneとはなんぞや 文字で説明するより見たほうが早い 凄くざっくり説明すると、一枚の絵と動きをボーン動画として入力すると、入力した絵がボーン動画と同じ動きをしてくれるよ!というもの。 似たようなものは今までもReferenceOnly × openpose × animatediffとかで出来ましたが、特筆すべきはその精度。 動画生成の大敵であるちらつきは一切なく、入力画像にかなり忠実な動画を生成しています。 さてこの技術、動画生成にずっと注目している自分としてはいますぐにでも弄り倒したいのですが、残念ながらコードとモ
Stable Diffusionなどの画像生成AIの登場によって、手軽に好みの画像を出力できる環境が整いつつありますが、テキスト(プロンプト)による指示だけで好みのポーズのイラストを生成するには長い時間や経験が必要です。新たに開発された「ControlNet」を画像生成AIと併用すれば、好みのポーズを指定したイラストを簡単に生成できるとのことなので、実際にインストールして使い方を確かめてみました。 GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet https://github.com/Mikubill/sd-webui-controlnet ControlNetでポーズや構図を指定してAIイラストを生成する方法|ddPn08|note https://note.com/ddpn08/n/n7fce83
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く