R18判定で非公開にされてしまうためこの記事は note へ移行しました! 今後の書きモノは全てnoteにしていきます。 下記リンク先を参照&ブクマ&シェアして困ってる方に教えてあげてください😃 AI画界隈を盛り上げていきましょう〜😆
前回記事「Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権」は、おかげさまで沢山の方に読んで頂き、いろいろな意見や御質問や取材を頂きました。 それらの意見・御質問や取材を通じて、自分の中で新たな整理ができたので、続編の記事を書きたいと思います。 第1 どのような場合に著作権侵害になるのか みなさんの興味関心が強いトピックとして「画像自動生成AIを利用して画像を自動生成し、既存著作物の類似画像が生成された場合に著作権侵害に該当するか」があります。 前回の記事では「学習に用いられた画像と同一の画像が『偶然』自動生成された場合、著作権侵害に該当するか」について解説をしましたが、今回の記事では、もう少し多くのパターンについて検討をしたいと思います。 まず、その前提として「著作権侵害の要件」と「著作権侵害の効果」について説明をします。 この「要件」と「
Imperatoria Hoppo (イムペラトリア・北方) @ImperatoriaH @you629 私は海外の人間ですが、AIで作られた"アート"に対するバックラッシュには心から同意できます。 技術を身につけようとしない人が、本来は他人の作品から盗んで自分のものだと主張するための言い訳だと思うんです。 2022-10-04 13:14:26 そまりあ @somalia24906989 @you629 日本よりも海外の方がイラストレーターの地位が高いんですよね。今だに写真<イラストなので。歴史ある雑誌にもイラストが載っていた記憶が。 となれば、海外の方の反発も相当なものなのでしょうね。 2022-10-04 16:53:01
はじめに こんにちは。 前置きが思いつかないので、突然本題に入ります。 Stable Diffusionをはじめとする、Latent Diffusion Model(以下LDM)の追加学習手法は、その登場以来様々なやり方が提案されてきました。 例えば、学習データの表現を語に埋め込み、txt2imgの結果を直感的に操作するTextual Inverisionや、学習データによってDenoising U-Netのパラメータを変換するDNNを挿入するHyperNetworksはその代表的な手法です。 しかし、どの手法にも良い点と悪い点があり、こちらが決定的に良い、ということはなく、追加学習によるアウトカムの良し悪しを決定する最も大事なことは変わりません。 それは、適切な学習データを用意することです。 しかし、適切な学習データとは何か?という話はなかなか簡単に済ませられる話ではなく、モデルやタスク
画像生成AI「Stable Diffusion」では、文章(プロンプト)を入力することで自由に画像を生成できます。しかし、自分好みの画像を生成するにはプロンプトにこだわる必要があり、慣れるまでは「好みの画像をサクッと生成」とはいきません。「Tagger for Automatic1111's Web UI」を使えば参考画像の要素を読み取ってDanbooruのタグを導き出し、「参考画像に似た画像」を生成可能なプロンプトを一発で作成できるとのことなので、実際に使ってみました。 GitHub - toriato/stable-diffusion-webui-wd14-tagger: Tagger for Automatic1111's Web UI https://github.com/toriato/stable-diffusion-webui-wd14-tagger Tagger for A
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く