並び順

ブックマーク数

期間指定

  • から
  • まで

441 - 480 件 / 950件

新着順 人気順

StableDiffusionの検索結果441 - 480 件 / 950件

  • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第24回:照明を自由にコントロールできるIC-Light登場!(西川和久) | テクノエッジ TechnoEdge

    lllyasviel氏復活第一弾のIC-Light前回(第23回)にControlNetやFooocus、stable diffusion webui forgeを作ったlllyasviel氏、ここ数ヶ月Xなどに書き込みが無いと書いたが、いきなり驚くべき仕掛けを提げての復活。その名もIC-Light(Imposing Consistent Light)。Stable Diffusionの技術を使って、照明を自由にコントロールできる仕掛けだ。 これまでStable Diffusionでは、SD 1.5、SDXLに関わらず、Promptで光や照明などの指示はできたのだが、どのように反映されるかは、Modelやその他の設定しだい。例えば backlight, soft bounced lighting, soft natural lighting, candolelight, neon ligh

      生成AIグラビアをグラビアカメラマンが作るとどうなる?第24回:照明を自由にコントロールできるIC-Light登場!(西川和久) | テクノエッジ TechnoEdge
    • Waifu Diffusionをローカル環境で動かした手順

      Google Colabで実行するだけのほうが楽ではありますが ローカル環境のほうがvram多いGPU積んだのでせっかくなので使いたい人とか向けの記事。 ※Colabを使用したい方はこちらから"Open in Colab"でノートブックが開けますので ひたすらそれを実行すると良いです。 ローカル環境 -Ubuntu 20.04 -RTX 3090 1 Waifu-diffusionからリポジトリをローカル環境にクローンする。 git clone https://github.com/harubaru/waifu-diffusion cd waifu-diffusion name: ldm channels: - pytorch - defaults dependencies: - git - python=3.8.5 - pip=20.3 - cudatoolkit=11.3 - pyto

        Waifu Diffusionをローカル環境で動かした手順
      • 生成AIグラビアをグラビアカメラマンが作るとどうなる? 第22回:Stable Diffusion 3リリース。ComfyUIを使いAPI経由で生成(西川和久) | テクノエッジ TechnoEdge

        API経由ながらStable Diffusion 3が利用可能に!今年、2024年2月24日に次世代Stable Diffusion、Stable Diffusion 3が発表された。いろいろな特徴があるのだが、画像品質の向上はもちろんのこと、Stable Diffusion (XL) が苦手だった文字 (但し日本語などは除く) にも対応し、早く使いたかったものの、まだ一般が試せる状態ではなかった。 ところがつい先日の4月17日、Stability AI Developer PlatformのAPI経由で利用可能となったので、使ってみたのが今回の内容となる。 APIを使うにあたって必要なAPI Keyは、Stability AI にアカウントを作ると用意され、自動的に24クレジットが付加される。1枚作って消費するクレジットは以下の通り。 Stable Diffusion 3は1枚6.5クレ

          生成AIグラビアをグラビアカメラマンが作るとどうなる? 第22回:Stable Diffusion 3リリース。ComfyUIを使いAPI経由で生成(西川和久) | テクノエッジ TechnoEdge
        • Stability Matrix - k本的に無料ソフト・フリーソフト

          Stable Diffusion の各種 Web UI を、簡単な操作でインストール / 起動 / 管理 できるようにするソフト。 AUTOMATIC1111、Fooocus、SD.Next、InvokeAI、ComfyUI、VoltaML といった Stable Diffusion の各種 GUI を、簡単な操作でインストール / アップデート / 起動 できるようにしてくれます。 LoRA / LyCORIS / ControlNet 等の追加学習ファイルを管理する機能や、Civitai で公開されているモデルを内蔵ブラウザから直接検索&インストールする 機能なども付いています。 「Stability Matrix」は、クロスプラットフォーム対応の Stable Diffusion パッケージマネージャーです。 AUTOMATIC1111 Fooocus Fooocus-Control

            Stability Matrix - k本的に無料ソフト・フリーソフト
          • 生成AI悪用、中国発の偽情報「スパモフラージュ」日本で広がる…「日米関係にひびを入れる狙い」

            【読売新聞】SNSの普及やデジタル技術の向上を背景に、偏った情報を広げ、民意を操ろうとする動きが加速している。生成AI(人工知能)の登場により、その勢いは一気に増幅し、民主主義が危機に直面している。 <ハワイ火災には大きな陰謀がある

              生成AI悪用、中国発の偽情報「スパモフラージュ」日本で広がる…「日米関係にひびを入れる狙い」
            • 多すぎて悩む生成AI、最新注目ツールはこの3つ!

              コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕

                多すぎて悩む生成AI、最新注目ツールはこの3つ!
              • Stable Diffusionの文字がちゃんと描ける新バージョン「SD3」、APIを組み込んで検証した | テクノエッジ TechnoEdge

                Stability AIからStable Diffusionの新しいバージョン「Stable Diffusion 3」がAPI限定で公開されました。アプリケーションに組み込んで特徴やコストなどを確認しました。

                  Stable Diffusionの文字がちゃんと描ける新バージョン「SD3」、APIを組み込んで検証した | テクノエッジ TechnoEdge
                • Stable Diffusion XLで生成画像の破綻が起きる問題の解析と対策|hakomikan

                  Animagine XL V3が出始めた辺りから、特定のプロンプトを入力すするとアーティファクトが出てくると言う話がポツポツと聞こえてきました。アーティファクトって言われると古代兵器を思い浮かべてしまうわけですが、ここでいうアーティファクトというのはノイズではないけれどなんか変な画像という意味ですね。 細けぇ事はいいんだよ解決方法だけ教えろという方は最後の方にある説明を読んで下さい。 入力するプロンプトの順番や強度を入れ替えると出てきたりするが、発生条件が解らないという話で、どうにも雲をつかむような話でしたが、原因を突き止めたという話が回ってきました。 さて、OOOの破綻をきっかけに色々調べたところ、SDXL系のanimagine3等で発生している破綻について原因が判明しました。 結論はEnable emphasis a1111の強調計算で不具合が起きてます。 修正案1 setteing内

                    Stable Diffusion XLで生成画像の破綻が起きる問題の解析と対策|hakomikan
                  • 画像生成AI・Stable Diffusionのエンコーダーに見つかった致命的な欠陥とは?

                    画像生成AIのStable Diffusionは「潜在拡散モデル」と呼ばれるAIで、テキストを入力するだけで高精度な画像を生成することが可能です。このStable Diffusionに使われている「VAE」に致命的な欠陥があるという報告が、オンライン掲示板サイトのRedditに投稿されています。 The VAE used for Stable Diffusion 1.x/2.x and other models (KL-F8) has a critical flaw, probably due to bad training, that is holding back all models that use it (almost certainly including DALL-E 3). : StableDiffusion https://old.reddit.com/r/StableD

                      画像生成AI・Stable Diffusionのエンコーダーに見つかった致命的な欠陥とは?
                    • (全体公開)Loraを2回混ぜるとどうなる?モデルの指を安定させる方法|あいおえおえかきの

                      やっぱり同じLoraを2回入れると効果が高くなる気がする 強度1を1回じゃなくて、強度0.3を2回入れるみたいな感じ まだ研究が進んでないからなんとも言えないけどね — あいおえおえかきの (@NovelAIoekaki) December 9, 2023 このことは前々から気付いてはいましたが、新しいモデルを調整している時にはっきりと分かりました。 今回目指しているのはフラットなイラスト風のモデルなんですけど、指がね・・・結構破綻するんですよ。 ↓ 指がやばい。イラスト系モデルあるあるですね。 それを解決するために有効なのが「Hipoly 3D Model LoRA」というLoraを顔以外に適用することで、指を安定させるという方法。 これ自体は色んな方が知っていると思います。私も他の人の記事で見ただけなので。 ↓ 1girl, room,<lora:hipoly_3dcg_v7-epoc

                        (全体公開)Loraを2回混ぜるとどうなる?モデルの指を安定させる方法|あいおえおえかきの
                      • フォトグラファーAI - AI商品写真作成サービス

                        豊かな香りと炭酸の心地よい刺激が特徴のCBDドリンク「Leaflow」を提供するLeaflow株式会社様のランディングページや販促物でFotographer.aiを活用いただいております。 豊かな香りと炭酸の心地よい刺激が特徴のCBDドリンク「Leaflow」を提供するLeaflow株式会社様のランディングページや販促物でFotographer.aiを活用いただいております。

                          フォトグラファーAI - AI商品写真作成サービス
                        • 「好きなキャラに近い絵をAIが量産」――ある概念を“単語”に圧縮し入力テキストに使える技術

                          Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 イスラエルのTel-Aviv UniversityとNVIDIAの研究チームが開発した「An Image is Worth One Word: Personalizing Text-to-Image Generation using Textual Inversion」は、ある概念を新しい単語(論文ではnew pseudo-wordと表現している)に置き換え、その新しい単語を一部に用いた文章を画像生成AIの入力に使用するシステムだ。 指定したキャラクターや物、絵などが持つ概念(形、質感、雰囲気、構成、デザインなど)を単語に圧縮し、入力テキストに活用することでその概念に沿ったさまざまな画像を

                            「好きなキャラに近い絵をAIが量産」――ある概念を“単語”に圧縮し入力テキストに使える技術
                          • Stable Diffusion 3発表、Soraで話題の拡散トランスフォーマーを採用

                            英Stability AIは2月22日(現地時間)、画像生成機械学習モデルの新版「Stable Diffusion 3.0」の早期プレビューを発表した。新しいアーキテクチャを採用し、画質、マルチサブジェクト・プロンプトの処理、テキスト生成の精度が向上している。22日に早期プレビューのウエイティングリストへの登録受付が始まった。これは、一般公開に先駆けて性能と安全性を向上させるためのフィードバック収集を目的としている。 Stable Diffusion 3は、拡散トランスフォーマー・アーキテクチャにフローマッチングを組み合わせている。Stability AIは2022年8月以降、Stable Diffusion 1.4、1.5、2.0、2.1、XL 1.0、XL Turboを次々にリリースしてきたが、バージョン3.0は既存のモデルの強化版ではなく、アーキテクチャの刷新という点でオリジナル以来

                              Stable Diffusion 3発表、Soraで話題の拡散トランスフォーマーを採用
                            • 【Stable Diffusion】崩れた顔や手を自動で修正する方法

                              「崩れた手や顔を自動で修正したい」 「Inpaintingでチマチマと修正するのは面倒だ・・・」 このような場合には、Unpromptedがオススメです。 この記事では、Unpromptedについて解説しています。 本記事の内容 Unpromptedとは?UnpromptedのインストールUnpromptedの動作確認 それでは、上記に沿って解説していきます。 GitHub - ThereforeGames/unprompted: Templating language written for Stable Diffusion workflows. Available as an extension for the Automatic1111 WebUI. Templating language written for Stable Diffusion workflows. Availab

                                【Stable Diffusion】崩れた顔や手を自動で修正する方法
                              • Stable Diffusion入門-レンズ - 電通総研 テックブログ

                                電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusionシリーズ、今回のテーマはレンズです。 Stable DiffusionはAIカメラなので、どのようなレンズを使うかどうかはとても重要です。カメラの知識が必要ですが、基礎から丁寧に説明するので大丈夫です。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す呪文編 美少女アニメ画編 美少女写真編 女性イラスト編 魅惑的な女アニメ画(トゥーンレンダリング)編 長い呪文は切り捨てられる編 レンズの属性 焦点距離 F値 SIGMA SIGMA 85 mm F

                                  Stable Diffusion入門-レンズ - 電通総研 テックブログ
                                • 1枚の静止画からAIが人やキャラが動く動画を生成する「MagicAnimate」が公開/ソースコードに加え、Webブラウザー上で実際に動作するデモを利用できる

                                    1枚の静止画からAIが人やキャラが動く動画を生成する「MagicAnimate」が公開/ソースコードに加え、Webブラウザー上で実際に動作するデモを利用できる
                                  • 【AIアニメ】ComfyUIでAnimateDiffをはじめよう!|Baku

                                    ※当noteで掲載しているワークフローについては各記事公開時点のComfyUI環境で動作を確認しています。その後のComfyUI/カスタムノードのアップデートにより最新の環境では不具合が生じる可能性があるので、あらかじめご了承ください。 このnoteは、いま注目されているAI動画生成ツール「AnimateDiff」のハウツーをまとめた初心者ガイドです。 「AnimateDiff」は2023年7月に公開されたオープンソースの技術で、誰でも無償で利用することができます。AnimateDiffについては以下の記事が参考になります。 導入編1. ComfyUI のすすめ「AnimateDiff」は、単体では細かなコントロールが難しいため、現時点では以下のパッケージのどれかを選んで使うことが多いです。 AnimateDiff-CLI-Prompt-Travel コマンドラインでAnimateDiff

                                      【AIアニメ】ComfyUIでAnimateDiffをはじめよう!|Baku
                                    • AIがヒーロー作ったらすごいパチもん感を醸し出してきてもう笑うしかない「元ネタが分かるこの見た目」

                                      藤忍🔞☮🐤 @FujiShinobu じっくり眺めているとだんだん古の記憶がよみがえり、元ネタが次々判っていくのすごい。色やディテールがそのまま使われているし、何より特徴的なポーズは唯一無二の物だ。 twitter.com/picopicoshimbu… 2022-09-16 13:59:21

                                        AIがヒーロー作ったらすごいパチもん感を醸し出してきてもう笑うしかない「元ネタが分かるこの見た目」
                                      • AIは実際の人間の顔よりリアルに見える顔を作るという「ハイパーリアリズム」現象が含む大きな問題点とは?

                                        AIは実在していない人間の顔写真を生成することができ、その精度はすさまじい勢いで高まっています。AI製のスパイや実在しないエンジニアを活用したと疑われる例も報じられているほか、AIの生成した顔は本物の顔と区別がつかないだけではなく「本物の顔より信頼性が高い」とされる研究もあります。オーストラリア国立大学の上級講師であるエイミー・ダウェル氏は「AIは、本物の人間の顔よりも本物らしく見える顔を作成できる」ことを示した上で、そのようなAIの能力「ハイパーリアリズム」について解説しています。 AI Hyperrealism: Why AI Faces Are Perceived as More Real Than Human Ones - Elizabeth J. Miller, Ben A. Steward, Zak Witkower, Clare A. M. Sutherland, Eva G

                                          AIは実際の人間の顔よりリアルに見える顔を作るという「ハイパーリアリズム」現象が含む大きな問題点とは?
                                        • Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法

                                          Stable Diffusionをローカルで手軽に動かす方法 Stalbe Diffusion話題ですね。ただネックなのはGPUが必要な点です。GPUを持ってない人や、CUDAはよくわからない/絶対に入れたくないという人もいるでしょう。クラウドを使う方法もありますが、色々な事情で使えない/使いたくない人もいるでしょう。 そんな全世界のStable Diffusion難民に朗報です。Stable DiffusionがIntel CPUで動きます。しかもWLS2で動くので、大体のWindows PCで動きます。 以下のstable_diffusion.openvinoを使うだけです。 OpenVINOの説明は省略します。とにかくIntel CPUに最適化されたエッジコンピューティングのすごいヤツです(雑) セットアップ方法 前提 Intel CPU Windows OS 11にWSL2をインス

                                            Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法
                                          • 人はよく似た絵がAI製なのか人間のものなのかを区別できず「AIだと思った絵」に嫌悪感を抱く

                                            AIが生成した絵に異様なまでの忌避感を示す人がいますが、いざよく似た絵を見せられたとき、人間はその絵が誰(何)によって描かれたのかを判別できない可能性があることがわかりました。さらに、人間はAI製だと思い込んだ人間の絵に根拠もなく悪い評価を与えることも判明しています。 Understanding how personality traits, experiences, and attitudes shape negative bias toward AI-generated artworks | Scientific Reports https://www.nature.com/articles/s41598-024-54294-4 People liked AI art – when they thought it was made by humans https://www.scien

                                              人はよく似た絵がAI製なのか人間のものなのかを区別できず「AIだと思った絵」に嫌悪感を抱く
                                            • としあきdiffusion Wiki*

                                              AI進化に編集が追いついていません。 お気軽に編集にご協力ください。 (誤情報や旧情報でもとっしー達が直していきます)

                                                としあきdiffusion Wiki*
                                              • 「Stable Diffusion」のような画像生成AIにバックドアを設けることを義務化するよう呼びかける論文が発表される

                                                最新の論文で、Stable Diffusionのような画像生成AIに「バックドア」を設けることを義務化すべきとマサチューセッツ工科大学(MIT)の研究者たちが呼びかけました。画像生成AIにバックドアを設けることで、これらを開発する企業は規制当局と協力してAIアプリが同意のないディープフェイクの作成に利用されることを防ぐことができるようになると主張しています。 Raising the Cost of Malicious AI-Powered Image Editing https://arxiv.org/pdf/2302.06588.pdf A Call to Legislate ‘Backdoors’ Into Stable Diffusion - Metaphysic.ai https://metaphysic.ai/a-call-to-legislate-backdoors-into-

                                                  「Stable Diffusion」のような画像生成AIにバックドアを設けることを義務化するよう呼びかける論文が発表される
                                                • [WebUI] Stable DiffusionベースモデルのCLIPの重みを良いやつに変更する

                                                  簡単な記事なので前置きは省略します。 CLIPについて Stable Diffusionベースのモデルは、画像生成に際してテキストで条件づけを行う(a.k.a. txt2img)場合、CLIPという基盤モデルでテキストをベクトルに変換し、生成処理に渡しています。 つまり、入力したテキストをいかに的確に生成処理のモデルに伝えられるのかはCLIP(のようなテキストエンコーダー)の性能にかかっているわけですが、実はStable Diffusionに組み込まれているCLIPは、CLIPの中でも最強性能のものではありません。 適当に、画像のグラフに登場する点はそれぞれCLIPのバリアントで、上にあるモデルほど性能がいいと考えてください。 ここで、Stable Diffusion V1系に組み込まれているCLIPはL/14ですが、CLIPの中で最も性能の良いL/14@336pxに一歩遅れをとっているこ

                                                    [WebUI] Stable DiffusionベースモデルのCLIPの重みを良いやつに変更する
                                                  • 光源を指定して画像の背景を違和感なく変更できる生成AIツール「IC-Light」をControlNetの作者が公開したので使ってみた

                                                    ControlNetの開発者として知られるLvmin Zhang氏が、画像の光源の位置や光源の種類を自由に指定できる画像編集AIツール「IC-Light」を公開しました。 GitHub - lllyasviel/IC-Light: More relighting! https://github.com/lllyasviel/IC-Light IC-Lightは画像の光源の種類や位置を指定しつつ背景を別物に置き換えられるAIツールです。IC-Lightはローカルにインストールして使用可能。さらに、インストール不要で使えるデモサイトも用意されていたので、実際にデモサイトでIC-Lightを使って画像を加工してみました。 IC-Lightのデモサイトには、以下のリンクをクリックするとアクセスできます。 IC Light - a Hugging Face Space by lllyasviel h

                                                      光源を指定して画像の背景を違和感なく変更できる生成AIツール「IC-Light」をControlNetの作者が公開したので使ってみた
                                                    • 22/09/26 Stable Diffusion追加学習の記録

                                                      A new tool that blends your everyday work apps into one. It's the all-in-one workspace for you and your team

                                                        22/09/26 Stable Diffusion追加学習の記録
                                                      • TensorRTを使ってStableDiffusionを爆速にする

                                                        どうもだだっこぱんだです。今までずっとjs,tsとかを触ってましたが、最近はpythonかなり触ってます。 AIなんも知らない人間ですがAIについて書いてみました。 まずは結果を 右は普通の生成方法。Diffusersにattention_slicingを有効にして生成した結果です。 真ん中はxformersを有効にした場合。 左は今から紹介するTensorRTを使用する方法です。 はじめに この記事では、技術関係なんも知らない!っという方向けのColabで試すだけの方法。 ある程度知識がある方向けのWindowsやLinuxで実際に動かす方法の二つを紹介します。 それいじょうのことはぼくはなにもわかりません🫠 Colabでお試し ノートブックを開く 👆のリンクからノートブックのリポジトリにアクセスし、OPEN IN COLABボタンをクリックしてノートブックを開きます。 事前ビルド済

                                                          TensorRTを使ってStableDiffusionを爆速にする
                                                        • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第八回:シンプルで高機能なSDXL専用インターフェースFooocusとFooocus-MREの使いかた (西川和久) | テクノエッジ TechnoEdge

                                                          生成AIグラビアをグラビアカメラマンが作るとどうなる? 連載記事一覧もっと簡単に高画質の絵を出したい!前回は画像生成AIなStable Diffusionを動かすにあたって、一番ポピュラーなインターフェースである AUTOMATIC1111のインストール方法と簡単な使い方をご紹介した。 AUTOMATIC1111はこれ一本で何でも出来る優れものなのだが、その分、設定項目が多く、ぱっと見、何が何だか分からない人も多いのではないだろうか。筆者も当初はそうだった。 AUTOMATIC1111の起動直後。正直これでは何から触って良いのかビギナーには分からない加えてStable Diffusion 1.5 (SD 1.5)標準Modelだと、画像生成を指示する呪文(Prompt)でいくら頑張っても大したものが出ないため、実用的に使うには別途Modelダウンロードする必要があるなど、初心者にとっては面

                                                            生成AIグラビアをグラビアカメラマンが作るとどうなる?第八回:シンプルで高機能なSDXL専用インターフェースFooocusとFooocus-MREの使いかた (西川和久) | テクノエッジ TechnoEdge
                                                          • pix2pixによる画像生成ができるControlNetのインストール

                                                            「img2imgでは元画像が大きく崩れてしまう・・・」 「Stable Diffusionでpix2pixを実現したい」 このような場合には、ControlNetがオススメです。 この記事では、ControlNetについて解説しています。 本記事の内容 ControlNetとは?ControlNetのシステム要件ControlNetのインストールControlNetの動作確認 それでは、上記に沿って解説していきます。 ControlNetとは? ControlNetは、pix2pixと言われています。 実際、ControlNetを使って左の画像を右の画像に変換できています。 その際、「a dog in the hell」を生成条件として付加。 ControlNetでは、画像とテキストを入力しています。 そして、その結果として画像を生成することになります。 この点では、ControlNetは

                                                              pix2pixによる画像生成ができるControlNetのインストール
                                                            • 画像生成AI「Stable Diffusion」による画像生成や顔面高解像化などをコマンド一発で実行できる「ImaginAIry」

                                                              画像生成AI「Stable Diffusion」は文章(プロンプト)を入力するだけで好みの画像を生成してくれますが、ローカル環境でStable Diffusionを使う場合は複雑な初期設定が必要です。オープンソースで開発されているPythonパッケージ「ImaginAIry」なら、Stable Diffusionを用いた画像生成環境をpipで簡単に構築可能で、画像生成以外にもプロンプトによる画像編集や超解像機能も利用できてめちゃくちゃ便利そうなので、その機能をまとめてみました。 GitHub - brycedrennan/imaginAIry: AI imagined images. Pythonic generation of stable diffusion images. https://github.com/brycedrennan/imaginAIry ImaginAIryは「L

                                                                画像生成AI「Stable Diffusion」による画像生成や顔面高解像化などをコマンド一発で実行できる「ImaginAIry」
                                                              • 「文字だけもなんなので、プロフィール画像をAI(Stable Diffusion)に作らせてみた」――急遽テレワークを導入した中小企業の顛末記(112)【急遽テレワーク導入!の顛末記】

                                                                  「文字だけもなんなので、プロフィール画像をAI(Stable Diffusion)に作らせてみた」――急遽テレワークを導入した中小企業の顛末記(112)【急遽テレワーク導入!の顛末記】
                                                                • https://magics.work/

                                                                  • キャラクター画像をアニメに 中国アリババなど「Animate Anyone」開発 ボーンの動きを反映

                                                                    モデルは、Stable Diffusion(SD)のネットワーク設計と事前訓練された重みを継承し、Denoising UNetを複数フレームの入力に対応できるように変更している。 この方法には3つの重要なコンポーネントが組み込まれている。参照画像からキャラクターの外観的特徴をエンコードする「ReferenceNet」。骨格動画からキャラクターの動きを制御するためのモーションデータをエンコードする「Pose Guider」。キャラクターの動きの連続性を確保するための時間的関係を補う「Temporal layer」。 ReferenceNetで抽出した特徴は、Spatial-Attentionを用いてDenoising UNetに統合される。これにより、Denoising UNetはReferenceNetと同じ特徴空間にある関連する特徴を選択的に学習できる。また、CLIP画像エンコーダーを使

                                                                      キャラクター画像をアニメに 中国アリババなど「Animate Anyone」開発 ボーンの動きを反映
                                                                    • 今から画像生成AIに興味を持った人のためのQ&A -どんなリスクがあるの?著作権は生じるの?-|ゆるセーヌ/不許

                                                                      また、柿沼太一弁護士が「生成AIの利用ガイドライン作成のための手引き」を公開されています。言語モデル含むAI利用に関する諸問題と現行の法について大変よくまとめられています。ブクマ推奨! AIの利用にあたっては、紹介したガイドラインのような、専門家や業界団体が作成した信頼性の高い資料を参照してください。 当記事は2023/3/8に書かれたものであり、現在の状況や実態にそぐわない点がございます。 情報提供を目的として作成されていること、主張についてはあくまで個人の意見であることお含みおきください。 現在、画像生成AIについては「画像生成AIってコラージュなの?」「著作権ってどうなるの?」「NAIリークモデルってなに?」と情報が錯綜している状態です。 「画像生成AIには興味があるけれど、疑問が多すぎてわからない、不安だ」と思われている方も少なからずいらっしゃると思います。 そこで画像生成AIのよ

                                                                        今から画像生成AIに興味を持った人のためのQ&A -どんなリスクがあるの?著作権は生じるの?-|ゆるセーヌ/不許
                                                                      • 誰でもわかるStable Diffusion Kohya_ssを使ったLoRA学習設定を徹底解説 - 人工知能と親しくなるブログ

                                                                        前回の記事では、Stable Diffusionモデルを追加学習するためのWebUI環境「kohya_ss」の導入法について解説しました。 今回は、LoRAのしくみを大まかに説明し、その後にkohya_ssを使ったLoRA学習設定について解説していきます。 ※今回の記事は非常に長いです! この記事では「各設定の意味」のみ解説しています。 「学習画像の用意のしかた」とか「画像にどうキャプションをつけるか」とか「どう学習を実行するか」は解説していません。学習の実行法についてはまた別の記事で解説したいと思います。 LoRAの仕組みを知ろう 「モデル」とは LoRAは小さいニューラルネットを追加する 小さいニューラルネットの構造 LoRA学習対象1:U-Net RoLA学習対象2:テキストエンコーダー kohya_ssを立ち上げてみよう LoRA学習の各設定 LoRA設定のセーブ、ロード Sour

                                                                          誰でもわかるStable Diffusion Kohya_ssを使ったLoRA学習設定を徹底解説 - 人工知能と親しくなるブログ
                                                                        • 【TensorRT】Stable Diffusion Web UIを倍速にできるNVIDIA製の神AIツール!使い方〜実践まで | WEEL

                                                                          Stable-Diffusion-WebUI-TensorRTは、Stable-Diffusion-WebUIでTensorRTを使用するための拡張機能で、RTXのGPUで最高のパフォーマンスを利用するためのものです。 その速度は超高速で、高速といわれていた従来の手法よりさらに2倍以上も高速です! どれだけ速いんだよって話ですよね。 今回は、Stable-Diffusion-WebUI-TensorRTの概要や使い方についてお伝えします。 是非最後までご覧ください! 本記事は2023年10月の執筆時点での情報となります。2024年2月現在、Stable-Diffusion-WebUI-TensorRTの最終更新は2023年10月17日にとなっています。最新の環境だと動作しない可能性があるのでご注意ください。 なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽

                                                                          • [Stable Diffusion] Depth-to-Imageモデルを学習なしで特定のドメインに適応させる

                                                                            はじめに こんにちは。なんかです。 早速本題に入ります。 [2023/01/20追記] この記事で説明しているDepth-to-Imageモデルのドメイン適応と、適応したモデルのAUTOMATIC1111さんのWebUIでの使用が行えるColab Notebookを公開しました。 こんな感じで使えます Depth-to-Imageモデルの説明 StabilityAIが公開したStable Diffusion V2系のモデルの中に、depthモデルというものがあります。 このモデルができることは、一般的なStable Diffusionのimg2imgができることと基本的には同じで、画像とテキストを入力とし、入力された画像スタイルをテキストの指示に従って変換する、というものです。 まずは、一般的なモデル(ここではWaifu Diffusion V1.4 Epoch1を使用しています)のimg

                                                                              [Stable Diffusion] Depth-to-Imageモデルを学習なしで特定のドメインに適応させる
                                                                            • UberのCacheFront:レイテンシーを大幅に削減し、毎秒4000万件の読み取りを可能に

                                                                              垂直スケーラビリティと効果的なテストによる金融取引システムのパフォーマンスと効率の最大化 Peter Lawrey氏はJavaチャンピオンであり、Chronicle SoftwareのCEOとして、開発者を鼓舞してソリューションのクラフトマンシップを高めることに情熱を注いでいる。経験豊富なソフトウェアエンジニアとして、Lawrey氏はソフトウェア開発プロセスにおけるシンプルさ、パフォーマンス、創造性、革新性を奨励することに努めている。

                                                                                UberのCacheFront:レイテンシーを大幅に削減し、毎秒4000万件の読み取りを可能に
                                                                              • Stable Diffusionの改良版「Stable Diffusion XL(SDXL)」の技術レポートが公開

                                                                                画像生成AI・Stable Diffusionからパラメーター数が大幅に増加した新モデル「Stable Diffusion XL(SDXL)」の技術レポートが公開されました。 generative-models/assets/sdxl_report.pdf at main · Stability-AI/generative-models · GitHub https://github.com/Stability-AI/generative-models/blob/main/assets/sdxl_report.pdf Stable Diffusion XL technical report [pdf] | Hacker News https://news.ycombinator.com/item?id=36586079 SDXLは従来のStable Diffusionと比べて3倍の大きさの

                                                                                  Stable Diffusionの改良版「Stable Diffusion XL(SDXL)」の技術レポートが公開
                                                                                • フリーのイラストレーターなどが画像生成AIでお金を稼ぐ方法

                                                                                  「Stable Diffusion」などの画像生成AIを手軽に使える環境が急速に整いつつありますが、インターネット上では「画像生成AIがアーティストの仕事を奪ってしまうのではないか」という議論も起きています。そんな中、アーティストのヴィタリー・S・アレクシウス氏が「画像生成AIがいかにアーティストの表現活動に役立つか」を解説しています。 How to make money as an artist with a personal Stable Diffusion AI - a tutorial from a pro! : StableDiffusion https://www.reddit.com/r/StableDiffusion/comments/yhjovv/ 2022年8月に画像生成AI「Stable Diffusion」が一般公開されて以降、有志によってStable Diffus

                                                                                    フリーのイラストレーターなどが画像生成AIでお金を稼ぐ方法