並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 5 件 / 5件

新着順 人気順

"Stable Diffusion"の検索結果1 - 5 件 / 5件

  • すがやみつる先生が生成AIを使ったことでAIを憂う人たちから大量の質問が殺到する→質問に丁寧に返答、ベテラン漫画家が話す「模倣について」の考え方がためになる

    すがやみつる @msugaya 私も試してみました。プロンプトは、以下のとおりです。 ***** 『ゲームセンターあらし』というタイトルのマンガがありますが、このマンガに関係なく、タイトルだけのイメージから、美少女がゲームセンターで激しくゲームをプレイする絵を、マンガタッチで描いてください。 ***** こちらの方が年齢が高そうですね(^_^)。 ChatGPT経由でDALL-E3に描いてもらいました。 2024-04-30 22:26:48 ジロー @i9r82k こんこんばんばん 本日夜便は、ゲームセンターあらしより「ゲームセンターあらし」です ゲーセンというか、カラオケじゃないか? 黒髪ショートカットって意外に珍しい気がする なんか悪友というか、腹を割って話せる関係っぽい感じがします #画像生成AI #美少女 pic.twitter.com/8SF9NJb1QR 2024-04-30

      すがやみつる先生が生成AIを使ったことでAIを憂う人たちから大量の質問が殺到する→質問に丁寧に返答、ベテラン漫画家が話す「模倣について」の考え方がためになる
    • 2023年、AIの影響で『絵に求められる事』が激変してきている話。|さいとう なおき|pixivFANBOX

      クリエイターの創作活動を支えるファンコミュニティ「pixivFANBOX」

        2023年、AIの影響で『絵に求められる事』が激変してきている話。|さいとう なおき|pixivFANBOX
      • Googleが広告ポリシーを更新し「AIで偽のポルノコンテンツを作成できるサービスの宣伝」が禁止に

        Googleは2024年第1四半期(1~3月)には広告関連で700億ドル(約11兆円)もの売上を記録しており、インターネット広告市場では依然としてトップのシェアを誇っています。そんなGoogleが広告ポリシーを更新し、「露骨な性的表現やヌードを含むように変更または生成された合成コンテンツの宣伝」を禁止するとしました。これにより、ディープフェイク(AI技術を用いて作成される本物と見紛うような偽画像・動画)で作成されたポルノコンテンツである「ディープフェイクポルノ」を作成することができるサービスの宣伝が禁止されることとなります。 Google bans advertisers from promoting deepfake porn services - The Verge https://www.theverge.com/2024/5/3/24148368/google-ad-policy-

          Googleが広告ポリシーを更新し「AIで偽のポルノコンテンツを作成できるサービスの宣伝」が禁止に
        • Pika、RunwayMLなど動画生成AIサービスを同一プロンプトで比較した結果。OpenAI Soraでも実際は膨大なガチャと後編集 | テクノエッジ TechnoEdge

          こうした動きと並行して、OpenAIは一部の映像クリエイターにSoraを試用してもらい、その作品を積極的に公開しています。中でも僕が注目したのは、「パンクロック・ピクサー」の異名を持つshy kidsというカナダの映像プロダクションが制作した「Air Head」です。これは頭が黄色い風船で出来ている主人公が、自転車に乗ったり、サボテンだらけの通路を歩いたり、風に飛ばされた頭を胴体が追いかけるといった内容の、アイデアに満ちていてAI生成動画の可能性を示す1分21秒の小品でした。 ところが、4月半ばにfxguideというオンラインメディアがshy kidsを取材して、Soraの実際の使用感を語った”Actually Using SORA”という記事を掲載したのです。 それによると、Soraも他の動画生成AIと同じく、どのような映像が生成されるかはスロットマシン(昨今の日本風にいえば、ガチャ)の

            Pika、RunwayMLなど動画生成AIサービスを同一プロンプトで比較した結果。OpenAI Soraでも実際は膨大なガチャと後編集 | テクノエッジ TechnoEdge
          • SATO: Stable Text-to-Motion Framework

            ABSTRACT Is the Text to Motion model robust? Recent advancements in Text to Motion models primarily stem from more accurate predictions of specific actions. However, the text modality typically relies solely on pre-trained Contrastive Language-Image Pretraining (CLIP) models. Our research has uncovered a significant issue with the text-to-motion model: its predictions often exhibit inconsistent ou

            1