『MarkeZine』が主催するマーケティング・イベント『MarkeZine Day』『MarkeZine Academy』『MarkeZine プレミアムセミナー』の 最新情報をはじめ、様々なイベント情報をまとめてご紹介します。 MarkeZine Day
『MarkeZine』が主催するマーケティング・イベント『MarkeZine Day』『MarkeZine Academy』『MarkeZine プレミアムセミナー』の 最新情報をはじめ、様々なイベント情報をまとめてご紹介します。 MarkeZine Day
画像生成AIのStable Diffusionなどのトレーニングには、約58億5000万もの画像とテキストの組み合わせからなるデータセット「LAION-5B」が用いられています。新たに人権NGOのヒューマン・ライツ・ウォッチ(HRW)が、LAION-5Bにはブラジルの子どもたちの写真が同意なしで使われており、多くの子どもたちは身元まで追跡可能であると報告しました。 Brazil: Children’s Personal Photos Misused to Power AI Tools | Human Rights Watch https://www.hrw.org/news/2024/06/10/brazil-childrens-personal-photos-misused-power-ai-tools AI trained on photos from kids’ entire chi
ノードベースの画像生成ソフトウェア「ComfyUI」向けに作られたノードの一つ「ComfyUI_LLMVISION」にマルウェアが仕込まれていることがわかりました。発覚後、ComfyUI_LLMVISIONのGitHubリポジトリが削除されています。 PSA: If you've used the ComfyUI_LLMVISION node from u/AppleBotzz, you've been hacked byu/_roblaughter_ incomfyui クリエイターのロブ・ラフター氏がRedditで共有したところによると、ComfyUI_LLMVISIONをインストールして使用した場合、ブラウザのパスワード、クレジットカード情報、閲覧履歴がWebhook経由でDiscordサーバーに送信されてしまうとのこと。 ラフター氏自身も影響を受け、ComfyUI_LLMVISIO
中国のSNS「快手(Kuaishou)」は、テキストから最大2分間の動画を生成できる動画生成モデル「可灵(Kling)」を開発。多数のサンプル動画を掲載するデモサイトを公開した。 テキストから最大2分間のフルHD動画を生成 A Chinese AI video generator just dropped before we got access to Sora Can generate 2-minute videos at 30fps, 1080p quality, available on the KWAI iOS app with a Chinese phone number A few generations from their site: 1. pic.twitter.com/NEmWiqKHiO — Rowan Cheung (@rowancheung) June 6, 20
画像生成AI「Stable Diffusion」の開発元として知られるStability AIが、オープンソースの音楽生成AI「Stable Audio Open」を公開しました。Stable Audio Openは、文章で指示するだけで最長47秒の音楽を生成できます。 Stable Audio Open — Stability AI https://stability.ai/news/introducing-stable-audio-open We’re excited to announce Stable Audio Open, an open source model optimised for generating short audio samples, sound effects and production elements using text prompts. This
タイトル通り、入力線画を(基本的には)1pixelも変えずに画像生成AIに色塗りをさせる方法について解説していきます。 本題に入る前に そもそも画像生成AIによる色塗り(着彩)について知らない方向けに、既存技術でAIに色塗りをさせるとはどのような事を指すか?またどのような課題があるか?について一度整理します。 画像生成AIによる着彩 テキストから画像を生成できるという事で一躍有名になった画像生成AIですが、テキストだけでは生成したい画像を詳細に指示することが困難であるという課題を抱えていました。 そこで、テキストと比較してより具体的に生成したい画像を指示する方法として。ControlNetを用いた画像とテキストを入力して新たな画像を生成する手法が現れます。 この応用として、色塗りがされていない線画と指示テキストを入力することで、入力した線画に対し色を塗った状態の画像を生成するという方法が存
1/AIモデルの選定 いつものように、漫画のシナリオ、ネームを考えます。今回は「兎と亀」をベースに、GPU購入の話にします。 今風の漫画絵を生成するのに最適な画像AIは、SDXLアニメ系モデル、Novel AI、niji・journey辺りでしょう。第1回で主に使ったDALL・E3は、プロンプトの通りはピカ一ですが微妙に絵柄に古さがあるので、今回のテーマには向きません。 Midjourneyとniji・journeyは構図力も画力も高いので参考資料として使うには最適なのですが、自分は特に商業でこのモデルは使用しない事にしています。何故ならプロンプトに含めなくても版権デザインが紛れ込みやすいためです。 例えば「剣を持った青年」を出してもらうとします。青年はオリジナルのデザインだったとしても、剣だけ版権のデザインがモロに出る、みたいな挙動がMidjourneyやniji・journeyでままあ
こんにちは、漫画界の生き恥こと野火城と申します。 「画像AI使ってみた/AI漫画実験企画」第2回です! ■第1回はこちら 実録:AIで描く漫画の実際 ~体験して見えた、その実力と課題!! その成り立ちから様々な議論を呼んでいる画像生成AIですが、少なくとも2024年3月現在日本の法律では使用が許可されており、存在を完全に無視する事はできません。かといって全てを肯定して受け入れるのも難しい。 だからこそ、必要以上に恐れず、実際にどのような事が出来るのか、具体的に検証する――それが画像AIとの誠実な向き合い方なのではないでしょうか。 「画像AIの技術がすごいという賞賛記事はよく見るが、それは本当に創作活動で実戦的に使えるものなのか? 『AIに仕事を奪われる』と『今のAIは実戦では使い物にならない』という真逆の意見を多数見るが、この二つは両立しないのでは? 実際はどっちなんだ?」「画像AIを試し
この連載ではおなじみのキャラクター「明日来子さん」に右側からライトを当ててみた。左がIC-Lightを適用したもので、右がオリジナル。環境はWebUI Forge用の拡張機能を使用 5月8日に、「ControlNet」など画像生成AI関連の著名研究者であるイリヤスフィール(lllyasviel)さんが発表した「ICライト(Imposing Consistent Light、印象的な一貫的なライト)」が盛り上がりました。入力した画像をもとに、後から指定した照明効果を踏まえた画像を生成する技術です。 画像生成AIで照明効果がつけられる「ICライト(IC-Light)」 発表された学習済みモデルは、「ライトを指定すると、キャラクターのデータに合わせてテキストのプロンプトに合わせて独自に背景を生成するもの」「キャラクターとライトの影響を加味して、別の背景画像と合成するもの」の2種類があります。これ
Stability.AIは5月10日、同社の画像生成AI製品「Stable Diffusion 3」や「Stable Video Diffusion」などを、競合サービス「Midjourney」のように「Discord」上で利用することができるサブスクリプションサービス「Stable Artisan」の運用を開始した。 豊富な編集ツールも用意 これまで同社の画像生成AI「Stable Diffusion」シリーズは、ローカル環境にダウンロードして利用するのが主流(APIもあり)だったため、高性能のグラフィックボードが必要になるなど利用のハードルが他社サービスと比べて少し高かった。 今回発表されたStable Artisanに加入すれば、コミュニケーションプラットフォームDiscordを利用して、誰でもすぐに画像生成を楽しむことができるようになる。特に、これまでAPI経由でしか利用できなかっ
コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕
lllyasviel氏復活第一弾のIC-Light前回(第23回)にControlNetやFooocus、stable diffusion webui forgeを作ったlllyasviel氏、ここ数ヶ月Xなどに書き込みが無いと書いたが、いきなり驚くべき仕掛けを提げての復活。その名もIC-Light(Imposing Consistent Light)。Stable Diffusionの技術を使って、照明を自由にコントロールできる仕掛けだ。 これまでStable Diffusionでは、SD 1.5、SDXLに関わらず、Promptで光や照明などの指示はできたのだが、どのように反映されるかは、Modelやその他の設定しだい。例えば backlight, soft bounced lighting, soft natural lighting, candolelight, neon ligh
Stable Diffusionはそのままでも十分きれいな画像を描いてくれますが、自分の好みに合った画風の絵を描いてくれなかったり、特殊な構図を指定しても理解してくれなかったり、いまいちかゆいところに手が届かない、と思うことがあるでしょう。 そんな時、Stable Diffusionに新たな絵柄や構図を教えて、自分の好みに近い絵柄や構図の画像を生成させることができます。 その仕組みが「追加学習」です。 追加学習の方法はいくつかありますが、今回は、現在主流になっている「LoRA」という手法について簡単に解説し、LoRA学習を行うのに必要なプログラムを導入する方法を説明します。 注意: 今回の解説にあるKohya_ssのインストール手順はWindow向けです。Mac/Linuxと共通する部分もありますが、手順はWindowsマシンにインストールすることを想定しています。 Loraとは Lora
ControlNetの開発者として知られるLvmin Zhang氏が、画像の光源の位置や光源の種類を自由に指定できる画像編集AIツール「IC-Light」を公開しました。 GitHub - lllyasviel/IC-Light: More relighting! https://github.com/lllyasviel/IC-Light IC-Lightは画像の光源の種類や位置を指定しつつ背景を別物に置き換えられるAIツールです。IC-Lightはローカルにインストールして使用可能。さらに、インストール不要で使えるデモサイトも用意されていたので、実際にデモサイトでIC-Lightを使って画像を加工してみました。 IC-Lightのデモサイトには、以下のリンクをクリックするとアクセスできます。 IC Light - a Hugging Face Space by lllyasviel h
画像生成AI関連の著名な開発者、lllyasviel(イリヤスフィール)氏が5月7日、生成AI画像の照明を自在に操作できるツール「IC-Light(Imposing Consistent Light)」を公開した。 2種類のモデルを公開 IC-Lightは画像の照明を操作するプロジェクト。前景画像(人物やオブジェクトなど)を入力し、プロンプトにテキストや背景画像を指定するだけで、まるで別の環境で撮影したかのような画像を得ることができるという。 現在、「テキスト条件付きリライティングモデル(text-conditioned relighting model)」と「背景条件付きモデル(background-conditioned model)」の2種類がGitHubで公開されており自由に試すことができる。 なお、作者のlllyasviel氏は「Stable Diffusion」のWebUIであ
こうした動きと並行して、OpenAIは一部の映像クリエイターにSoraを試用してもらい、その作品を積極的に公開しています。中でも僕が注目したのは、「パンクロック・ピクサー」の異名を持つshy kidsというカナダの映像プロダクションが制作した「Air Head」です。これは頭が黄色い風船で出来ている主人公が、自転車に乗ったり、サボテンだらけの通路を歩いたり、風に飛ばされた頭を胴体が追いかけるといった内容の、アイデアに満ちていてAI生成動画の可能性を示す1分21秒の小品でした。 ところが、4月半ばにfxguideというオンラインメディアがshy kidsを取材して、Soraの実際の使用感を語った”Actually Using SORA”という記事を掲載したのです。 それによると、Soraも他の動画生成AIと同じく、どのような映像が生成されるかはスロットマシン(昨今の日本風にいえば、ガチャ)の
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く