並び順

ブックマーク数

期間指定

  • から
  • まで

401 - 440 件 / 2906件

新着順 人気順

"Stable Diffusion"の検索結果401 - 440 件 / 2906件

  • 生成AIは人間の「浅はかさ」を暴露する装置でもある――「バーベンハイマー」が浮き彫りにしたもの:大山顕 | 記事 | 新潮社 Foresight(フォーサイト) | 会員制国際情報サイト

    プロンプトによって欲望を視覚化するプロセスには、「考える」時間が差し挟まれる余地はない。インスタ写真に添えられる大量のハッシュタグ、あるいは事細かなカテゴリー分けがされていくポルノとも通底する「表面的語句」の強力な作用は、画像生成AI(人工知能)の設計思想の根幹にも及んでいる。「バーベンハイマー」画像のおぞましさは、プロンプトを入力した者がなにひとつ考えず、感じないままだというところにある。 *** 過日「Barbenheimer(バーベンハイマー)」というインターネットミームが物議を醸した。Barbenheimerとは「バービー」と「オッペンハイマー」から生まれた造語である。米国で大ヒット中の映画『バービー』のキャラクターに原爆のキノコ雲などを合成した画像が大量に作られ、各種SNSにポストされた。なぜバービーにキノコ雲なのか。『バービー』と、原爆を開発した物理学者を描いた映画『オッペンハ

      生成AIは人間の「浅はかさ」を暴露する装置でもある――「バーベンハイマー」が浮き彫りにしたもの:大山顕 | 記事 | 新潮社 Foresight(フォーサイト) | 会員制国際情報サイト
    • 【2023年版】WebUIのおすすめ拡張機能30選(Stable Diffusion)

      こんにちは、画像生成AIでひたすら猫のイラストを生成している じょじお(@jojio‗illust)です。 Stable Diffusionの記事です。 この記事ではWebUIの拡張機能のおすすめを紹介する記事になっております。 これは、私自身のメモとして今後も更新し続けていく予定です。

        【2023年版】WebUIのおすすめ拡張機能30選(Stable Diffusion)
      • ChatGPTに単語を「永遠に」繰り返すよう促すことでトレーニングに使われた膨大なテキストデータを吐き出させる攻撃手法をGoogleの研究者らが開発

        ChatGPTのトレーニングにはインターネットから取得したデータが利用されていますが、具体的なデータの中身は非公開となっています。「同じ単語を繰り返して」という単純な命令を行う事でChatGPTにトレーニングデータを出力させることに成功したとGoogleの研究者らが発表しました。 Extracting Training Data from ChatGPT https://not-just-memorization.github.io/extracting-training-data-from-chatgpt.html [2311.17035] Scalable Extraction of Training Data from (Production) Language Models https://arxiv.org/abs/2311.17035 機械学習モデルのトレーニングに使用したデー

          ChatGPTに単語を「永遠に」繰り返すよう促すことでトレーニングに使われた膨大なテキストデータを吐き出させる攻撃手法をGoogleの研究者らが開発
        • プログラムも数学も苦手、でもアプリストア1位のゲームを開発 素人がChatGPTを使って目に見える成果を挙げるポイント

          一般社団法人ウェブ解析士協会のスピンアウトの研究会「Flashセミナー研究会」。マーケティングを中心に、ビジネスパーソンや経営者に今必要なスキルを紹介する同会のセミナーに、Tiktokアカウントが開設から半年でAIジャンル最大のフォロワー数に成長した「日本ChatGPT研究所ノーベル」を運営する徳永勝里氏が登壇。アイデア出しの相手としてのChatGPTのコスパの良さや、生成AIのプロンプトのコツなどが語られました。 ChatGPTの活用でTikTokフォロワーが4ヶ月で6.6万超 徳永勝里氏(以下、徳永):次が、「ChatGPT × 情報発信」ということで、自分の話ではあるんですが、僕はTikTokを大量に投稿して伸びています。ChatGPTを触る前はフォロワー1万(人)くらいだったんですが、今は3〜4ヶ月で6.6(万人)まで増えました。 僕の動画がどんなものかを知らない人のほうがたぶん多

            プログラムも数学も苦手、でもアプリストア1位のゲームを開発 素人がChatGPTを使って目に見える成果を挙げるポイント
          • ChatGPTなど生成AIによる個人情報の開示 | 技術者ブログ | 三井物産セキュアディレクション株式会社

            本ブログは「生成AI x セキュリティ」シリーズの第二弾です。 前回は「DALL-E 2などの画像生成AIに対する敵対的攻撃」と題し、OpenAIのDALL-E 2やStability AIのStable Diffusionに実装されているSafety Filterをbypassして、悪意のある画像を生成する手法と対策を解説しました。 今回は「ChatGPTなど生成AIによる個人情報の開示」と題し、ChatGPTなどの生成AIを介して個人情報が開示されるリスクについて解説します。 昨今大きな話題となっているChatGPTは、12年間にわたる大量のWebクロールデータや英語版Wikipediaなどペタバイト級の情報に加え、ChatGPTユーザーが入力した文章(プロンプト)も学習していると言われています。このため、過去に誤って公開された機微情報を含むWebページや、ユーザーが誤入力した社外秘や

              ChatGPTなど生成AIによる個人情報の開示 | 技術者ブログ | 三井物産セキュアディレクション株式会社
            • ChatGPTと「ジェネレーティブAI戦争」の知られざる6つの事実 | Forbes JAPAN 公式サイト(フォーブス ジャパン)

              Microsoft(マイクロソフト)共同創業者のビル・ゲイツは、最近急激な発展を見せる人工知能(AI)について「2023年の最もホットな話題であると同時に、議論の的にもなる」と語っている。他のAI業界のリーダーたちもゲイツと同意見だ。 こうした状況を最もよく表しているのが、OpenAI(オープンAI)と同社が開発した対話型ロボットの「ChatGPT」だ。フォーブスの推計では、ChatGPTのユーザー数は、リリースから60日足らずで500万人を突破している。 ChatGPTは、ペンシルベニア大学ウォートン校の期末試験で「B」評価を獲得するほどの頭脳を持っており、間もなくマイクロソフトのOfficeをはじめ、数多くのビジネス向けアプリケーションに組み込まれる予定だ。 しかし、OpenAIのCEOのサム・アルトマンと社長のグレッグ・ブロックマンは、ChatGPTのリリースを棚上げすることを検討し

                ChatGPTと「ジェネレーティブAI戦争」の知られざる6つの事実 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
              • ニューWindowsマシンのセットアップした - laiso

                10年ぶりぐらいにWindowsメイン機を構築したら色々変わっていた。その過程で情報収集しながら記録した内容をポストします。 マシンの目的 やらなかったこと 日本語環境の構築 古いWindowsっぽく振る舞う設定系 仮想マシン内にLinux環境を作る系 Remote Desktop sshd winget Git Python Stable Diffusion web UI Visual Studio 2022 PowerToys JoyToKey Power Automate マシン間のファイル送受信 自動ログオンとキオスク端末化 マシンの目的 Windowsしか対応していないビデオゲームをプレイする GPU使ったタスク。機械学習モデルの推論やファインチューニング。画像・テキスト生成AIの実行 Windowsデスクトップアプリケーションの開発 VRデバイスや3Dゲームエンジンを使った開発

                  ニューWindowsマシンのセットアップした - laiso
                • Dify の ワークフロー の概要|npaka

                  以下の記事が面白かったので、簡単にまとめました。 ・Workflow - Dify 1. ワークフロー1-1. ワークフロー「ワークフロー」は、複雑なタスクを小さな「ノード」に分割することで、LLMアプリケーションのモデル推論への依存を減らし、システムの説明可能性、安定性、耐障害性を向上させます。 「ワークフロー」の種類は、次のとおりです。 ・Chatflow :  顧客サービス、セマンティック検索など、応答作成に複数ステップのロジックを必要とする会話シナリオ用 ・Workflow : 高品質な翻訳、データ分析、コンテンツ作成、電子メールの自動化など、自動化・バッチ処理シナリオ用 1-2. Chatflow自然言語入力におけるユーザー意図認識の複雑さに対処するため、「質問分類」「質問書き換え」「サブ質問分割」などの問題理解ノードを提供します。さらに、LLMに外部環境との対話機能、すなわち「

                    Dify の ワークフロー の概要|npaka
                  • ブラウザ上で描いたイラストと同じ構図で画像生成AIに絵を描いてもらえる「Scribble Diffusion」が登場

                    画像生成AIのStable Diffusionはテキストを入力して指示を出すことで画像を生成できますが、テキストだけだと自分の望み通りの絵を生成するのはなかなか難しいもの。「Scribble Diffusion」は、ブラウザ上で描いた落書きとテキスト入力から自分の希望に近い絵をStable Diffusionで生成することが可能で、動作デモをブラウザから試すことが可能です。 Scribble Diffusion https://scribblediffusion.com/ このScribble Diffusionは、プロンプトとして画像の構図や深度情報などを追加で与えるためのニューラルネットワーク「ControlNet」を応用しています。ControlNetを使うとどういう画像が生成できるのかについては、以下の記事を読むとよくわかります。 ポーズや構図を指定してサクッと好みのイラスト画像を

                      ブラウザ上で描いたイラストと同じ構図で画像生成AIに絵を描いてもらえる「Scribble Diffusion」が登場
                    • 画像生成したらコラージュだった件

                      本記事は、画像生成AI Advent Calendar 2022 15日目を埋める記事です。 はじめに 画像生成AIは、学習した画像をコラージュした画像を出力しているのではないか、という議論があります。多くのモデルは勝手に収集した画像で学習(訓練)されているため、そのようなコラ画像が生成されていたら大問題です。 上の図を見てください。この図は、今月投稿された論文 [1] Diffusion Art or Digital Forgery? Investigating Data Replication in Diffusion Models [Gowthami Somepalli+, arXiv 2022] の図です。上段がStable Diffusionの生成画像、下段が訓練データのサブセット(LAION Aesthetics v2 6+)中で一番似た画像です。生成画像の一部またはほぼ全部が

                        画像生成したらコラージュだった件
                      • お絵描き趣味の人間が画像生成AIを使ってみた

                        その結果が以下。 https://i.imgur.com/UBzZTBy.jpeg このラフがしっかり仕上げされる形になってて本当にびっくりした。 ここまで来るのに環境構築も含めて5時間もかかってない。 軽く自己紹介すると、ワイはお絵描きが趣味でIT系の仕事をしとる人間や。 最近のTwitter上のオタク界隈はAI絵の炎上が絶えない。 Stable Diffusion は出たての頃にちょっと触ってみたんやけど、何百枚も生成して使える絵は片手で数えるほどだったという印象があってそのあとはあまり真面目に技術を追いかけとらんかった。しかし最近の炎上を見てて、技術的にどこまで可能でどこからが不可能になるのか確認したくなり、もう一度環境構築からやり直すことにしたんや。 Stable Diffusion の WebUI の Docker 版を入れて、イラストに特化したモデルを入れて、VAEで画像のボヤ

                          お絵描き趣味の人間が画像生成AIを使ってみた
                        • 達人出版会

                          探検! Python Flask Robert Picard, 濱野 司(訳) BareMetalで遊ぶ Raspberry Pi 西永俊文 なるほどUnixプロセス ― Rubyで学ぶUnixの基礎 Jesse Storimer, 島田浩二(翻訳), 角谷信太郎(翻訳) 知る、読む、使う! オープンソースライセンス 可知豊 きつねさんでもわかるLLVM 柏木餅子, 風薬 R/RStudioでやさしく学ぶプログラミングとデータ分析 掌田津耶乃 データサイエンティストのための特徴量エンジニアリング Soledad Galli(著), 松田晃一(訳) 実践力をアップする Pythonによるアルゴリズムの教科書 クジラ飛行机 スッキリわかるサーブレット&JSP入門 第4版 国本 大悟(著), 株式会社フレアリンク(監修) 徹底攻略 基本情報技術者教科書 令和6年度 株式会社わくわくスタディワール

                            達人出版会
                          • AIで作ったアニメのクオリティがめちゃくちゃ高い「順調に人間の仕事奪ってる」→一方でAIの学習内容を問題視する声も

                            Tetsuro Miyatake @tmiyatake1 AIで作ったアニメ。クオリティがめちゃくちゃ高い。 そしてクライマックスで日本語の曲が出てくるのは面白いチョイス。 youtu.be/GVT3WUa-48Y pic.twitter.com/5wtVoCh8OH 2023-02-28 11:22:42 Tetsuro Miyatake @tmiyatake1 映像を作るための音声、ストーリー、動きは全て人間が行って、それをアニメ化するのがAIの仕事。 役者の顔や体を認識するためのモデルやどのスタイルを適用するのかのモデルも作り、それらをStable Diffusionと組み合わせてキャラクターをアニメ化している。 pic.twitter.com/lxvqY8ezBS 2023-03-01 09:10:57

                              AIで作ったアニメのクオリティがめちゃくちゃ高い「順調に人間の仕事奪ってる」→一方でAIの学習内容を問題視する声も
                            • Google Colab で、お手軽 Text-to-Image

                              最近話題のお絵描きAIをGoogle Colabで試してみようという記事です。 ここで使うAIは、stability.aiの stable diffusion というモデルで、つい最近 CreativeML Open RAIL-Mライセンスの下、オープンソースでリリースされました。 StableDiffusionに関する日本語記事は、深津 貴之さんの記事が面白いので是非こちらをお読みください。 stability.aiの記事で、Google Colabを用いて使う方法についての説明があり、試してみたところ本当に簡単に実行できてしまったので、その手軽さを紹介できればと思います。 実際に試したい場合は、元記事のGoogle Colabのノートブックが丁寧に説明しているので、そちらをご覧いただければと思います。 試してみる。 必要なもの Google アカウント Hugging Face アカウ

                                Google Colab で、お手軽 Text-to-Image
                              • Google Colab で はじめる Waifu Diffusion v1.2|npaka

                                「Waifu Diffusion v1.2」が二次元キャラの画像生成が得意らしいということで試してみました。 ・Diffusers v0.3.0 ・Waifu Diffusion v1.2 【最新版の情報は以下で紹介】 1. Waifu Diffusion v1.2「Waifu Diffusion v1.2」は、「Stable Diffusion」を二次元イラストのデータセットでファインチューニングして作られた画像生成AIです。Danbooruの画像で学習しています。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) 新規のColabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」を選択。 (2) パッケージのインストール。 # パッケージのインストール !pip install diffusers==0.3.0 transformers

                                  Google Colab で はじめる Waifu Diffusion v1.2|npaka
                                • Stable Diffusionのおすすめモデルを紹介!ダウンロード方法から著作権まで徹底解説 | WEEL

                                  Stable Diffusionのおすすめモデルを紹介!ダウンロード方法から著作権まで徹底解説 2024 2/20 「Stable Diffusion」を使うと写真のようにリアルな画像や、高画質なアニメ調の画像を作れますが、これは使用するモデルによって異なることをご存知でしたか? 今回は、画像生成に大きく影響するstable diffusionのモデルに焦点を当てて、おすすめのモデル、ダウンロード方法、使用方法、さらに商用利用時の注意点について詳しくご紹介します。 この記事を最後までお読みいただければ、お好みの画像を自由に作れるようになるかもしれません。 ぜひ、最後までご覧ください! なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽にご相談ください。 →無料相談で話を聞いてみる Stable Diffusionとは Stable Diffusionは、画像

                                  • マイクロソフト、WebAssemblyとWebGLで推論エンジンを実装した「ONNX Runtime Web」(ORT Web)をオープンソースで公開

                                    マイクロソフト、WebAssemblyとWebGLで推論エンジンを実装した「ONNX Runtime Web」(ORT Web)をオープンソースで公開 マイクロソフトは、WebAssemblyとWebGLで機械学習の推論エンジンを実装した「ONNX Runtime Web」(ORT Web)をオープンソースで公開しました。 INTRODUCING: #ONNXRuntime Web (ORT Web), a new feature in ONNX Runtime to enable JavaScript developers to run and deploy machine learning models in browsers https://t.co/Ey3tsNlkEe pic.twitter.com/9uGyK8Pra0 — onnxruntime (@onnxruntime)

                                      マイクロソフト、WebAssemblyとWebGLで推論エンジンを実装した「ONNX Runtime Web」(ORT Web)をオープンソースで公開
                                    • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第十回:実在モデルからSDXL用顔LoRAを作る (西川和久) | テクノエッジ TechnoEdge

                                      https://www.techno-edge.net/special/560/recent/%E7%94%9F%E6%88%90AI%E3%82%B0%E3%83%A9%E3%83%93%E3%82%A2%E3%82%92%E3%82%B0%E3%83%A9%E3%83%93%E3%82%A2%E3%82%AB%E3%83%A1%E3%83%A9%E3%83%9E%E3%83%B3%E3%81%8C%E4%BD%9C%E3%82%8B%E3%81%A8%E3%81%A9%E3%81%86%E3%81%AA%E3%82%8B%EF%BC%9F続きを読む » Modelに無い顔や彼女の顔を出したい!生成AIでポートレート写真やグラビアを作っていると、同じような雰囲気の顔ばかりが結構出るのに気付く。 もちろん何パターンもあるので、毎回同じでもないのだが、XやInstagramなどの生成AI画像

                                        生成AIグラビアをグラビアカメラマンが作るとどうなる?第十回:実在モデルからSDXL用顔LoRAを作る (西川和久) | テクノエッジ TechnoEdge
                                      • DeepLearningについて、最近作ったもの、書いたもの、勉強したこと

                                        こんにちは!逆瀬川 ( @gyakuse ) です。 今日は最近作ったもの、書いたもの、勉強したことを備忘録的にまとめていきたいと思います。 なぜ書くのか、なぜ学ぶのか DeepLearningの普及以降、Attention Is All You Need以降、Hugging Faceでの民主化以降、そしてStable DiffusionやChatGPTの登場以降、どんどんAGIへの距離が短くなってきています。未来は想定より大きく変わりそうです。どったんばったん大騒ぎのときはみんなが分かっておくべきことは効率的に共有すべきで、そのために書いています。書くためには論文等を読む必要があります。そしてそのためには基礎からしっかり学ぶことが大事です。次の一歩をみんなで歩んでいくために、学び、書いています。 間違ったことを言うかもしれませんが、それでも誰かのためになれば嬉しいです。あと、個人的にはこ

                                          DeepLearningについて、最近作ったもの、書いたもの、勉強したこと
                                        • ブラウザ上で描いたスケッチをAIが画像に変換してくれるサービス「Stable Doodle」をStability AIがリリース

                                          Stable DiffusionやMidjourneyなどの画像生成AIは、テキストを入力してAIに指示を出すことで画像を生成できますが、テキストだけだと自分の好みの画像を生成することはなかなか難しいものです。AI研究開発企業のStability AIが、2023年7月14日にシンプルなラフスケッチを画像へと変換できる無料サービス「Stable Doodle」の開始を発表しました。 ClipDrop - Stable Doodle https://clipdrop.co/stable-doodle Clipdrop、Stable Doodleをリリース — Stability AI Japan https://ja.stability.ai/blog/clipdropstable-doodle 頭の中のイメージを誰かに伝えるときにラフなスケッチを描いたものの、余計わかりづらくなった、なんて

                                            ブラウザ上で描いたスケッチをAIが画像に変換してくれるサービス「Stable Doodle」をStability AIがリリース
                                          • 脳が知覚した内容を「Stable Diffusion」が画像化 脳活動を解析 阪大などが技術開発

                                            Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。Twitter: @shiropen2 大阪大学大学院生命機能研究科と情報通信研究機構CiNetに所属する研究者らが発表した論文「High-resolution image reconstruction with latent diffusion models from human brain activity」は、潜在拡散モデルを用い、磁気共鳴機能画像法(fMRI)により得られた人間の脳活動から画像を生成する手法を提案した研究報告である。実験参加者に画像を見せた際のfMRI信号から潜在拡散モデルで画像を生成する。 【修正履歴:3月8日午後6時40分更新:掲載当初のタイトルから一部内容を修正

                                              脳が知覚した内容を「Stable Diffusion」が画像化 脳活動を解析 阪大などが技術開発
                                            • Photoshopで画像生成AIをサクッと使える無料プラグイン「Auto-Photoshop-StableDiffusion-Plugin」使い方まとめ

                                              Stable Diffusionなどの画像生成AIは作品制作のアイデア出しや素材出力に非常に便利です。無料で公開されているPhotoshopプラグイン「Auto-Photoshop-StableDiffusion-Plugin」を使えば、Stable Diffusionで生成した画像を即座にPhotoshop上で編集できるとのことなので、実際にAuto-Photoshop-StableDiffusion-Pluginをインストールする手順や使い方を確認してみました。 GitHub - AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin: A user-friendly plug-in that makes it easy to generate stable diffusion images inside Photoshop usin

                                                Photoshopで画像生成AIをサクッと使える無料プラグイン「Auto-Photoshop-StableDiffusion-Plugin」使い方まとめ
                                              • Meta、マルチモーダルAI「ImageBind」をオープンソース化

                                                米Metaは5月9日(現地時間)、マルチモーダルな情報をバインドするAIモデル「ImageBind」をオープンソース化したと発表した。 「マルチモーダル」は複数の「モダリティ」の処理が可能であることを示す。モダリティは、データの種類。ImageBindは、テキスト、画像および動画、音声、深度(3D)、熱(赤外線)、慣性測定単位(IMU)という6種類のモダリティの情報を単一の表現空間で学習する。 例えば、トラの写真を解析し、その吠え方、体温、動きなどの総合的な情報を生成したり、にぎやかな市場の音に基づいて市場の画像を生成したりできるという。 ImageBindは、モダリティの組み合わせごとのデータのトレーニングが不要で、複数のモダリティにわたって結合埋め込み空間を作成できる。 例えば、研究用に交通量の多い都市の道路からの音声データと熱データを1つのデータセットにすることも可能だ。 3Dセンサ

                                                  Meta、マルチモーダルAI「ImageBind」をオープンソース化
                                                • Stable DiffusionをDocker Desktopで簡単に使い始める方法 ‣ Pocketstudio.Net

                                                  Stable DiffusionをWindowsのDocker Desktopで比較的簡単にはじめる手順をまとめました。ほぼ、自分の覚書です。 確認した環境は、Windows 10 Pro、21H2、build 19044.2846+16GB RAM+NVIDIA GeForce RTX 2060 SUPER+WSL2(Ubuntu)+Docker Desktop 4.18.0(104112) です。 どうして Stable Diffusion のために Docker Desktop を使うのか? 楽してセットアップしたいからです。AUTOMATIC1111/stable-diffusion-webui というウェブ用 UI は既にありますが、動かすためには環境構築等いくつかの手順が必要です。ですが、この面倒な作業を省略してできる Stable Diffusion WebUI Docker

                                                    Stable DiffusionをDocker Desktopで簡単に使い始める方法 ‣ Pocketstudio.Net
                                                  • Macで始める画像生成AI 「Stable Diffusion」ComfyUIの使い方 (1/5)

                                                    突然だが、上記はこの連載の第2回の冒頭部分だ。連載をはじめた当初は右も左もわからない状態だったので「Stable DiffusionはMacでは使えない」と断言してしまった。思い出すたびに冷や汗が出る。 とはいえご存知の通りStable Diffusionを動かすのにNVIDIAビデオカード搭載のWindows機が向いているのは事実なので、これまではすべて新規購入したゲーミングPCで作業することになんの不満も感じていない。 だが、前回紹介したStable DiffusionのUI環境のインストールや更新がワンクリックで可能になる「Stability Matrix」を使えば、PythonやPipのバージョンといった難しいことを考えなくてもMacで画像生成環境を作れるのではないかと考えた。 お詫びから7ヵ月、ずいぶん遅くなったがようやく伏線回収である。 Stability MatrixでM1

                                                      Macで始める画像生成AI 「Stable Diffusion」ComfyUIの使い方 (1/5)
                                                    • Stable Diffusion WebUIを使ってDepth画像を作成して立体視を楽しむ|Alone1M

                                                      (この記事は画像生成AI Advent Calendar 2022に投稿するために書きました) この記事では、AUTOMATIC1111さんのStable Diffusion WebUI を使って、生成した画像から、Depth画像を作成して、Looking Glass Portraitや、Meta Quest 2にデータを持っていき、立体視で楽しむための方法を説明します。 (なぜか、Twitterからことごとくセンシティブ判定食らってますが、センシティブな画像は含まれてないと…思います) #LookingGlassPortrait に出してみた。立体感がある感じの画像だととてもきれいにDepthが出る。例によりうまく伝わらないのですが。#anythingv3 #stablediffusion #AIイラスト pic.twitter.com/LN5HJN0y05 — Alone1M (@Al

                                                        Stable Diffusion WebUIを使ってDepth画像を作成して立体視を楽しむ|Alone1M
                                                      • AIが苦手な「手」を正確に描かせるための拡張機能「Depth map library and poser」の紹介【ControlNet】

                                                        の使い方をご紹介するという内容になっています。 Stable Diffusion系のモデルを使って美少女イラスト等を生成している方であれば、キャラクターの手や指がグチャグチャになってしまう問題に悩むことが多いと思います。この問題に関しては今まで多くの解決策が模索されていましたが今一つ決定打と呼べる案がありませんでした。 しかしそんな中で「ControlNet」と呼ばれる新技術が登場し、これを活用して手や指の問題をある程度解決する方法が考案されました。そして先日にはこの方法をStable Diffusion web UIで簡単に使える無料の拡張機能が登場したので、ぜひ情報を共有しておこうと思った次第です。 ここではその拡張機能「Depth map library and poser」について、インストール方法や使い方を解説していきますね。 ※2023/04/17追記: 最新のControlN

                                                          AIが苦手な「手」を正確に描かせるための拡張機能「Depth map library and poser」の紹介【ControlNet】
                                                        • Stable DiffusionのLoRAのつくりかた|RedRayz

                                                          はじめにこの記事は、初めてStable DiffusionのLoRAを作成する方に向けた解説です。わかりづらかったらすみません。 この解説ではSDXLベースのAnimagine-XL-3.1で二次元イラストのキャラクターのLoRAを作成します。 注意すでにWebUIの環境構築と生成ができていて生成に慣れている前提のガイドとなります。 Windows向けのガイドです。 また、NVIDIAのGeForce RTXグラフィックボードが搭載された高性能なパソコンが必要です。 そもそもLoRAってなんぞや?Low-Rank Adaptationが正式名称です。 難しくいうと、ウェイトとデータセットの差分を出力するものです。低ランクの行列に分解してからファインチューンすることで少ないメモリで学習できるようにしたものです。 簡単に言えば、LoRAはキャラ、衣装、シチュエーションや画風などを追加で学習した

                                                            Stable DiffusionのLoRAのつくりかた|RedRayz
                                                          • WebAssemblyとWebGPUを用い、Webブラウザ上でStable Diffusion Turbo全体を高速実行可能な推論エンジン「ONNX Runtime Web 1.17」マイクロソフトから登場

                                                            WebAssemblyとWebGPUを用い、Webブラウザ上でStable Diffusion Turbo全体を高速実行可能な推論エンジン「ONNX Runtime Web 1.17」マイクロソフトから登場 ONNX Runtime WebがWebGPUに対応。Webブラウザ上でさらに高速な推論処理が可能になった。Stable Diffusion Turbo全体をWebブラウザ上で高速に実行可能で、RTX4090を用いた場合1秒以内で結果が出力される。 ONNX Runtime Webの基になっている「ONNX Runtime」はクロスプラットフォーム対応の推論エンジンです。TensorFlow、PyTorch、SciKit Learnなどをはじめとするさまざまな機械学習のモデルに対応し、これらで生成されたモデルによる推論処理をプラットフォームに依存せず実行するランタイムの役割を果たします

                                                              WebAssemblyとWebGPUを用い、Webブラウザ上でStable Diffusion Turbo全体を高速実行可能な推論エンジン「ONNX Runtime Web 1.17」マイクロソフトから登場
                                                            • AI描画ソフト「Stable Diffusion」はWeb制作の役に立つか?

                                                              最近AIによる描画ソフトがかなり盛り上がっており、その中でも特に「Stable Diffusion」はWeb制作者にとってもインパクトが大きく、使い方によっては制作の役に立つかもしれないと思っています。 まずはStable Diffusionで制作した画像をご覧ください。 これらの画像は写真のように見えるかもしれませんが、どれもAI描画ソフトから出力されたものです。出力後に一切補正はしていません。 「こういう画像が欲しい」と頭で考えてから出力が完了するまでの時間は、約30分程度です。 以下のような、自分でつくるのはちょっと面倒なアイソメトリック風イラストや3DCG風の画像も制作できます。 建築イメージのような画像も制作できます。 自分で作るのは面倒な、タイリング画像(縦横に繰り返し表示できる画像)も制作できます。さらに合わせ技として、「アイソメトリック風のタイリング画像」の制作もできます。

                                                                AI描画ソフト「Stable Diffusion」はWeb制作の役に立つか?
                                                              • 画像生成AI「Stable Diffusion」でたった1枚の画像から「特定の画像っぽい○○」をわずか数十秒で生成する方法が発表される

                                                                Stable Diffusionなどの画像生成AIに、特定の画像や画風を特定の単語に圧縮してAIに指示することで、自分の生成したい画像を任意の画像によく似せる「最適化」が可能です。テル・アビブ大学のコンピューター科学者であるリノン・ガル氏らのチームが、たった1枚の画像と5~15ステップの調整で画像の最適化を実現する方法を発表しました。 [2302.12228] Designing an Encoder for Fast Personalization of Text-to-Image Models https://doi.org/10.48550/arXiv.2302.12228 Encoder-based Domain Tuning for Fast Personalization of Text-to-Image Models https://tuning-encoder.github

                                                                  画像生成AI「Stable Diffusion」でたった1枚の画像から「特定の画像っぽい○○」をわずか数十秒で生成する方法が発表される
                                                                • 画像生成AI「Stable Diffusion」を使い倒す! モジュラーシンセみたいな「ComfyUI」をインストール (1/3)

                                                                  sponsored キャンペーン期間は2024年4月22日まで 14900K&RTX 4080 SUPERで2万円オフ!! サイコム春キャンペーンで得するオススメ構成はコイツ sponsored 三井デザインテックにkintoneを導入した富士通Japan 基幹システム連携と伴走に強み sponsored kintoneで営業システムを刷新 アサヒ飲料をコムチュアがサポート sponsored はじめて買ったパソコンを安心して使う!「セキュリティ初心者のための三原則」 sponsored JN-34VC165UQRをレビュー 3440×1440ドットで165Hz駆動!湾曲ウルトラワイドでFPSにも使えるオールラウンダー sponsored クリエイティブな作業にも活用できる広色域&高速応答 4KのRAPID IPSディスプレーはワンランク上のゲーミング環境を約束!MSI「MAG 322UP

                                                                    画像生成AI「Stable Diffusion」を使い倒す! モジュラーシンセみたいな「ComfyUI」をインストール (1/3)
                                                                  • 現役プログラマーが教える「人工知能のそこのところ」

                                                                    すべての絵師の皆様へ当初は真面目な口調で解説しようと思ったのだけれど、堅っ苦しくするのもエントリの空気感自体が専門的になりすぎる気がしたので多少くだけた口調で進めさせて貰うね。 んで、まずはすべての絵師の皆様へ伝えたいことがある。 前提として、この「すべての絵師の皆様へ」の見出しの段は以降の見出しの段を書き終えてから追記したものだ。編集後記みたいなものか。 それでは話そう。 皆さんは絵師で絵を描き、ボクはプログラマーでプログラムを書いている。 大きなカテゴリで言えば同じくモノ作りをする属性を持った人間だろうと思わせてもらいたい。 同じくモノ作りをする人間として、絵師の皆様の混乱を知って「あぁコレは絵師の豊かな想像力が悪い方向に働いちゃってるな」と感じたんだ。 間違ってたら申し訳ないけれど、おそらく多くの絵師がイメージしたのは創作内に出てくる人工知能だ。 人工知能の暴走によりディストピアが発

                                                                      現役プログラマーが教える「人工知能のそこのところ」
                                                                    • まるで人間のアーティストが描いたような画像を生成するAIが「アーティストの権利を侵害している」と批判される

                                                                      イギリスのロンドンとアメリカのロスアルトスを拠点とするスタートアップ・Stability AIが2022年8月10日、まるで人間のアーティストが描いたような高クオリティの画像を生み出せる画像生成AI「Stable Diffusion」を研究者向けにリリースしました。Stable Diffusionは間もなく一般公開も予定されていますが、人間のアーティストからは「アーティストの権利を侵害している」といった批判が寄せられています。 Stable Diffusion launch announcement — Stability.Ai https://stability.ai/blog/stable-diffusion-announcement Stable Diffusion draws controversy on Twitter from artists who say the AI in

                                                                        まるで人間のアーティストが描いたような画像を生成するAIが「アーティストの権利を侵害している」と批判される
                                                                      • AI生成キャラのポーズを“棒人間アバター”で指定 「ControlNet」にVRを応用するユーザー登場

                                                                        ポーズ制御技術である「ControlNet」は「Stable Diffusion」などの画像生成AIでイラストを出力する際、棒人間のような3Dモデル「ボーン」(骨組み)を組み合わせてイラストの構図やキャラクターのポーズを指定するもの。通常なら3Dモデリングのスキルが必要な場合がある。 Puton.さんはソーシャルVRサービス「VRChat」ユーザーで、自分の動きをそのままアバターに反映できるフルトラッキング環境を持っていた。そこで「アバターでControlNet用のポーズ指定ができるのではないか」と思い付いたという。VRChatで使うアバターをボーン姿にして動かせるようにし、そのシーンをControlNetに入力したのだ。その結果、ポーズを指定する画像を簡単に入手できるようになったという。アバターの作成手順は以下の通りだ。 アバター作成時の基本姿勢であるTポーズ(直立で両腕を横に伸ばした姿

                                                                          AI生成キャラのポーズを“棒人間アバター”で指定 「ControlNet」にVRを応用するユーザー登場
                                                                        • Stable Diffusion WebUI 忘備録|かたらぎ

                                                                          LoRA 簡単に言えば素材となる画像を20~30枚程度用意し、AIに特徴を覚えさせることで人物や、背景、絵柄などを簡単に変更できるファイルのこと。 例えばキャラクターの髪や目や服の色がまちまちだったり、そもそもうまく出せなかったりそんな悩みを解消します。 既存のLoRAを自分の環境で使いたい場合はcivitaiなどからダウンロードしてください。

                                                                            Stable Diffusion WebUI 忘備録|かたらぎ
                                                                          • Stable Diffusion入門-美少女写真 - 電通総研 テックブログ

                                                                            電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusionシリーズ、今回は、美少女写真の呪文です。 今回の記事は、レンズ編がベースになっています。まだ、ご覧になっていない方は、もしよろしければお試しください。 今回の企画は、【公開】Stable Diffusionで美しい女性のポートレートを描くの記事が素晴らしかったので、思いついた企画です。まだ、見ていない方は是非ご覧ください。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す呪文 美少女アニメ画 美少女写真編 女性イラスト 魅惑的な女アニメ画(トゥー

                                                                              Stable Diffusion入門-美少女写真 - 電通総研 テックブログ
                                                                            • 画像生成AI「Stable Diffusion」などに作らせたい元画像の雰囲気から「呪文っぽい英文」の候補を検索できる「clip-retrieval」

                                                                              文章を入力するだけで好みの画像を生成してくれるAI「Stable Diffusion」は、2022年8月に一般公開されて以降大きな注目を集めており、PCに簡単にインストールできるGUIアプリや低スペックPCでも問題なく使える手法などが続々と編み出されています。しかし、Stable Diffusionでは英語の文章を入力する必要があり、英語が苦手な人には取っつきにくく感じます。参考画像から「画像を説明する英文」を簡単に検索できるシステム「clip-retrieval」を使えばStable Diffusionに入力する英文を一発で取得可能なので、使い方をまとめてみました。 GitHub - rom1504/clip-retrieval: Easily compute clip embeddings and build a clip retrieval system with them http

                                                                                画像生成AI「Stable Diffusion」などに作らせたい元画像の雰囲気から「呪文っぽい英文」の候補を検索できる「clip-retrieval」
                                                                              • 絵描きを救いたかったんだけどさぁ

                                                                                絵描きを救いたい気持ちはあったことにはあったが、何故救いたかったのかを言語化すると絵描きへの特大悪口になってしまうことをお許しください。そして救う気が失せました。 *** 近ごろ、画像生成AIが絵描きたちを騒つかせています。 作品の無断学習、非商用限定の画像群を学習したモデルを商用利用、フェアユース規定の無視疑惑……事実、画像生成AIは現在多くの問題を抱えています。 しかし。現行の日本の法律では、(利用範囲は定められていますが)機械学習における著作物の使用に著作者の許可はいらないことになっています。フェアユース規定よりさらに強力で、機械学習に有利すぎる条文です。 このままでは、絵描き的には大問題なわけです。自分が心血注いで作ったものが勝手に持っていかれるなんて、不快なことはなただしい。創作のモチベーションも奪われ、やがては産業自体の危機になると警鐘を鳴らす人もいます。 また、モラルなき人々

                                                                                  絵描きを救いたかったんだけどさぁ
                                                                                • 文章に沿った楽曲を自動生成してくれるAI「Riffusion」登場、画像生成AI「Stable Diffusion」ベースで誰でも自由に利用可能

                                                                                  入力した文章(プロンプト)に沿って画像を生成してくれるAI「Stable Diffusion」は、モデルデータが一般公開されていることから多くの人にカスタマイズを施されています。そんなStable Diffusionのモデルを調整して、文章を入力するだけで楽曲を生成してくれるAI「Riffusion」が開発されました。 Riffusion https://www.riffusion.com/ Riffusionの開発チームは、誰でも簡単にRiffusionを利用できるようにしたウェブアプリを公開しています。ウェブアプリにアクセスすると、画面右側に「post-teen pop talent show winner(賞を勝ち取った10代のアーティスト)」というプロンプトが表示されます。楽曲を再生するには、画面右上の再生ボタンをクリックすればOK。 再生ボタンをクリックすると、画面左側の図形が上

                                                                                    文章に沿った楽曲を自動生成してくれるAI「Riffusion」登場、画像生成AI「Stable Diffusion」ベースで誰でも自由に利用可能