ブックマーク / ascii.jp (19)

  • まるで“いけない話ができるChatGPT” ローカルAI「Command R+」の爆発的な可能性 (1/5)

    筆者の環境で、LM StudioでCommand R+を動作させている様子。会話相手は自作キャラクターの「明日来子(あすきこ)さん」 PCローカル環境で動作する大規模言語モデル(LLM)「Command R+」を使っていますが、相当優秀ですね。体感ではChatGPT(GPT-4)と変わらないレベル。さらに、ChatGPTが回答を拒絶するような会話もできてしまいます。これが体験できるようになったのは、LM Studioに代表されるローカルLLMを動かすためのアプリ環境が整ってきたためです。今年に入り、Command R+を始めとしたローカルLLMが高性能化してきたことと並行し、手軽に使える派生モデルも増えはじめ、一気にあわただしくなってきました。 導入が難しかったローカルLLM、「LM Studio」で簡単に Command R+を試すのに使っているのが、LLMの主要モデルを実行するための統

    まるで“いけない話ができるChatGPT” ローカルAI「Command R+」の爆発的な可能性 (1/5)
  • 画像生成AIに“照明”革命 ControlNet開発者が作った「IC-Light」

    画像生成AI関連の著名な開発者、lllyasviel(イリヤスフィール)氏が5月7日、生成AI画像の照明を自在に操作できるツール「IC-Light(Imposing Consistent Light)」を公開した。 2種類のモデルを公開 IC-Lightは画像の照明を操作するプロジェクト。前景画像(人物やオブジェクトなど)を入力し、プロンプトにテキストや背景画像を指定するだけで、まるで別の環境で撮影したかのような画像を得ることができるという。 現在、「テキスト条件付きリライティングモデル(text-conditioned relighting model)」と「背景条件付きモデル(background-conditioned model)」の2種類がGitHubで公開されており自由に試すことができる。 なお、作者のlllyasviel氏は「Stable Diffusion」のWebUIであ

    画像生成AIに“照明”革命 ControlNet開発者が作った「IC-Light」
  • 画像生成AIで同じキャラクターが簡単に作れるようになってきた (1/3)

    画像生成AIサービスの「Midjourney」に3月12日、新機能「Creative Reference」が追加。1枚の画像から特徴を引き継いだ画像を生成できるようになり、同じキャラクターに別のポーズをとらせるなど様々な画像を作れるようになりました。これまで画像生成AI「Stable Diffusion」などで同じキャラクターの画像を作るには「LoRA」という追加学習をするのが一般的でしたが、それが必要ないため、キャラクターの再現が劇的に簡単になってきました。 画像1枚で“似た顔” Midjourneyの新機能「Creative Reference」 使い方は、MidjourneyのDiscordに画像をアップロードして、「Creative reference」のタグ(cref)をつけてプロンプトを入力するだけ。CW 0〜100までのパラメーターがあり、0だと顔だけが共通になり、あとは数字

    画像生成AIで同じキャラクターが簡単に作れるようになってきた (1/3)
  • 画像生成AI「Stable Diffusion」使うなら「ComfyUI」のワークフローが便利です (1/4)

    プロンプト:1 girl, photorealistic, solo, perfect lighting, sailor dress, looking at viewer, long hair, black hair, two side up, ネガティブプロンプト:illustration, 3d render, (worst quality:2), (low quality:2), (normal quality:2), signature, watermark, username, open mouth

    画像生成AI「Stable Diffusion」使うなら「ComfyUI」のワークフローが便利です (1/4)
  • “世界生成AI”到来か 画像生成AIのゲームエンジン化が進む (1/5)

    Midjourneyの生成画像。12月のアップデートv6では、写真と変わらないような画像が生成されることが話題となっている。この画像のような世界を動き回れるようになるのだろうか(筆者作成) 画像生成AIサービス「Midjourney」のオフィスアワーがあったのが1月4日。アメリカ時間で1月3日ですかね。オフィスアワーというのは、MidjourneyがDiscord上で月に1回開いて、いろいろユーザー向けに今後どのようにサービスが展開されるのかを説明するミーティングです。その会合に参加していたNick St. Pierreさんの報告によると、Midjourneyのデイヴィッド・ホルツCEOが「2024年末までにホロデッキに到達できる」と話したと言うんですね。「2024 年末までには、リアルタイムのオープンワールドが実現できればと思っています」とも言い、画像生成AIが、単にイラストといった画

    “世界生成AI”到来か 画像生成AIのゲームエンジン化が進む (1/5)
  • 画像生成AIが爆速で進化した2023年をまとめて振り返る (1/5)

    Stability AI画像生成AI「Stable Diffusion」を公開したのは2022年8月のこと。すさまじい勢いで発展してきた画像生成AIの1年を振り返ってみようと思います。 初めに見てもらいたいのは「これが無料でいいのか!? “爆速生成AI”がペイントソフトに革命を起こした」で紹介した、KritaとGenerative AI for Kritaを組み合わせて作成した設定資料的な画像です。 キャラクターの3面図のサンプル。Vroidで簡単な3Dで当たり(左)として、右の画像を作成する。それを元に、プロンプトや画像に描き込んだりして、最終画像を作成していく。2枚目には前面図の頭部のカチューシャや、胸部分のフリルがなかったりするが、そこに色を加筆して、プロンプトで指示すると、最終画像にそれが追加されるのをリアルタイムに確認しながら修正できる(筆者作成) Stable Diffusi

    画像生成AIが爆速で進化した2023年をまとめて振り返る (1/5)
  • 画像生成AI「DALL·E 3」の性能が凄まじい。これを無料で使わせるマイクロソフトは本気で競合をつぶしに来ている (1/3)

    10月1日頃、OpenAIの新しい画像生成AI「DALL·E 3(ダリ3)」が徐々に使えるようになり、その性能の高さから話題になっています。まずサプライズで使えるようになったのがマイクロソフトのBingチャット。日語で「の画像を作ってください」などと入れるだけでかわいいの画像が出てくると。これが無料で使えるのは衝撃的です。マイクロソフトが巨大資で他の会社をつぶしに来たなという感じですね。どう考えても、今のところはサーバーコストが果てしなくかかる赤字サービスなのは間違いないので……。 「ラーメンべる女の子」が描ける! なにより衝撃的だったのは、「アニメ風の少女とが遊んでいる姿を作ってください」というリクエストに対し、一発で完璧な正解を出してきたことです。Stable Diffusionだと苦手とされていた指も適切に描写されています。もうひとつの着目点はオブジェクト間の関係性です

    画像生成AI「DALL·E 3」の性能が凄まじい。これを無料で使わせるマイクロソフトは本気で競合をつぶしに来ている (1/3)
  • アニメの常識、画像生成AIが変える可能性「AnimateDiff」のすごい進化 (1/3)

    原画と原画の間にあたる画像を複数枚入れることで、自然な連続性のある動きを作る。アニメの基となる「中割」作業を画像生成AIが実現する可能性が出てきました。鍵になっているのは「AnimateDiff」という技術。8月に入って、様々なユーザーのアップデートによって機能拡張が進められています。それは完全な画像生成AIで作られるアニメの可能性を垣間見せるほどのものです。 16コマ/2秒の短い動画が生成できる AnimateDiffは7月10日に発表された、上海AIラボ、香港中文大学、スタンフォード大学の共同研究による技術画像生成AI「Stable Diffusion」の仕組みとデータセットを利用しつつ、数百万の動画を学習させた「モーションモジュール」と呼ばれるデータセットを別途に参照させることで、連続するキャラクターの動きを生成可能にするというのが基原理です。生成できる時間は、16コマ/2秒

    アニメの常識、画像生成AIが変える可能性「AnimateDiff」のすごい進化 (1/3)
  • 動画生成AIがすごすぎる 映画登場も遠くない (1/4)

    1枚の画像からAIが動画を生成する、ランウェイ(Runway)社のサービス「Gen-2」が大きな話題になっています。 ランウェイは2018年創業のスタートアップ。もともとStability AIと共同でStable Diffusion用のデータモデルの開発を進めていましたが、現在は完全に独自のサービスを展開しています。画像生成AIはStability AIが先に行ってしまったので、生成AIでの動画作成にフォーカスして、技術開発とサービス展開をしています。今年6月には、Google、NVIDIA、セールスフォースなどから1億4100万ドル(約200億円)の資金調達を受けるなど、生成AI企業のなかでも大きく注目を浴びています。 わずか2分で画像が動画に 今年2月に発表された第1世代の「Gen-1」は、動画をプロンプトに応じて別の動画へと変換する(video to video)サービスでしたが、

    動画生成AIがすごすぎる 映画登場も遠くない (1/4)
  • 画像生成AI「Midjourney」で同じキャラをコスプレさせて遊ぶ方法 (1/2)

    画像生成AI「Midjourney」を使ったAIイラスト制作TIPSをお届けしています連載、今回は、Midjourneyを使って、同一キャラのコスプレ、要するに衣装替えを実現する方法をご紹介したいと思います。 Midjourneyは現在V5.2が公開されていますが、このバージョンから新たに追加された機能に「ズームアウト」と「パン」があります。 ズームアウトは、ひとつの画面からその外側にある風景を追加描写する、画像生成AI界隈では、いわゆる「アウトペイント」と呼ばれる機能。もう一方のパンは、アウトペイントを上下左右の指定方向にだけ行い、カメラを振った(パンした)かのように描写する機能です。 Midjourneyのアウトペイントは少し特徴的です。他の画像生成AIのアウトペイントが描画領域を追加してそこを描画していくのに対し、Midjourneyのそれは、元の絵を極力改変せずに縮小させて周囲に

    画像生成AI「Midjourney」で同じキャラをコスプレさせて遊ぶ方法 (1/2)
  • 世界を変えた画像生成AI、さらに進化「Stable Diffusion XL(SDXL)」いよいよ正式公開 (1/4)

    Stability AIは6月26日、画像生成AIの最新モデル「Stable Diffusion XL」を発表しました(「画像生成AI『Stable Diffusion』最高性能の新モデル『SDXL 0.9』一般的なPCで実行可能」)。パラメーター数がオリジナルのStable Diffusionの9億から23億へと大幅に拡大され、描写力が飛躍的に上昇したモデルです。正式版のSDXL 1.0が7月18日に公開予定とあり、あらためて注目されています。ベータ版にあたるSDXL 0.9は先行して、有料課金サービス「DreamStudio」と、Discordでの公開を開始していました。Discordでは1人無料で1回出力可能で、いまもリアルタイムで生成画像が見える状態です。その後SDXL 0.9は研究用に公開されて、ダウンロード可能になりました。 大きな違いは「2回生成する」こと SDXLがこれまで

    世界を変えた画像生成AI、さらに進化「Stable Diffusion XL(SDXL)」いよいよ正式公開 (1/4)
  • ゲームの“自動生成”技術がすごいことになっている (1/4)

    いま生成AIが話題になっていますが、AI技術の一つである「プロシージャル生成」の考えも重要です。プロシージャルというのは数式や関数にもとづき3Dコンテンツを生成する手法で、「手続き型」とも言われます。自動的にデータを作り出すという側面から、生成AIとプロシージャル生成は混同されることがありますが、実はまったく違う背景を持つ技術です。Epic Gamesが新たにゲームエンジン「Unreal Engine 5.2」に搭載したプロシージャルコンテンツ生成機能(PCG)は驚くべきものでした。3月のGDCで発表されていたデモマップ「Electric Dream」が6月21日に公開されています。今回はこのデモマップを使って技術を紹介しながら、生成AIとの違いを見ていきます。 お待たせしました! Electric Dreams 環境サンプル プロジェクトを無料公開しました!#UnrealEngine 5

    ゲームの“自動生成”技術がすごいことになっている (1/4)
  • Blenderに挫折する前に見てほしい、日本語の解説動画を紹介

    みなさんBlenderやってますか?? 私は大好きです。 どうも花田です。前にもBlenderについて書きましたが、今回は挫折した、若しくはBlender分からんッッ! って人に話します。 Blender語で解説してくれている人いるよ~ います。 中でも、当に当に初期にお世話になった人たちを2人紹介します。 M design - YouTube 話してくれる声は少なめで、動画を止めてゆっくり進めていく方式です。 情報量が少なく、作っている動画なので見よう見まねでできました。 3D Bibi - YouTube 簡単なモデルを細かく教えてくれるため、モデルが挫折しない。 YouTubeでBlenderで検索すると他の動画も沢山出てきます。 作りたいものを作りたいんだ! 作りたいものを検索しても、日語版が出てこない… 英語版を見て、挫折してしまった人も多いのではないでしょうか。 Bl

    Blenderに挫折する前に見てほしい、日本語の解説動画を紹介
  • 画像生成AI「Midjourney」でアニメ絵の似顔絵制作パート2ー生放送の宿題解決ー (1/3)

    GW中の連続企画として、画像生成AI「Midjourney」を使ったAIイラスト制作TIPS記事をお届けしています。また、5月2日には、これに関連した生放送企画も実施しましたが、ご覧いただけたでしょうか? こちらの放送では、連載企画の第1回と第2回で取り上げた、「Midjourney」の始め方の紹介と、「Midjourney」を使った似顔絵制作に実際にチャレンジしているのですが、放送時間の制約もあり、時間内にできあがったアスキー編集部つばさの似顔絵がちょっと微妙な感じでした。 そこで今回は、引き続き、あのとき例題として利用した写真を使って、もうちょっと人に似るまで試行錯誤を繰り返したら、どんな結果になるのか、を、その試行錯誤の過程と共にお届けしたいと思います。生放送を未視聴の方は、動画の後半部分、48分20秒ころからの映像を見てから、稿をお読みいただけるとさらに楽しめると思いますので

    画像生成AI「Midjourney」でアニメ絵の似顔絵制作パート2ー生放送の宿題解決ー (1/3)
  • 画像生成AI「Midjourney」の始め方・使い方 (1/3)

    今流行りの画像生成AIで遊んでみたいけど、始め方が分からん! という方のための、「Midjourney」始め方ガイドです。 ほかにも似たような記事がいくつもあるかとは思いますが、この記事とは別に「Midjourney」を使った似顔絵の書き方の記事を書きましたので、そちらの記事で興味を持っていただいた方向けに、始め方と簡単な使い方だけご紹介したいと思います。 「Midjourney」は、チャットアプリである「Discord」のコミュニティに参加して、画像生成AIとチャットすることで利用することができるインターフェースになっています。もちろん、他のユーザーも同じコミュニティに参加しているのですが、画像を生成するだけであれば、他のユーザーとコミュニケーションを取る必要はありませんので、ネットでも人見知りで……という方でも安心して使えます。 というわけで、まずは「Discord」アプリをダウンロー

    画像生成AI「Midjourney」の始め方・使い方 (1/3)
  • 画像生成AI「Midjourney」でLINEスタンプを作ろう (1/3)

    画像生成AIで好きなイラストを作るようになったら、ぜひやってみたいと思っていたのが今回取り上げるLINEスタンプの制作です。 そもそももっと以前からやってみたいと思ってはいたのですが、1枚、1枚絵を描いて、色を付けて、それをスタンプの形にして……と考えているうちに腰が重くなってチャレンジせずにいました。ですが、AIの力を借りれば、いとも簡単に制作できることが分かったので、今回は実際に私がスタンプを作って申請、公開に至るまでの過程をご紹介しましょう。 とはいっても、「Midjourney」を利用して作られたイラストは、現状、AIの学習素材の元となっているイラストや絵画データの取得先が開示されておらず、かなりグレーな状態になっています。稿では、Midjourneyで生成したイラストLINEスタンプの制作に利用しますが、あくまで個人利用を目的に制作していきたいと思います。 ※記事は、5月3

    画像生成AI「Midjourney」でLINEスタンプを作ろう (1/3)
  • グーグル「Bard」ついに日本公開 「ChatGPT」対抗のAIチャット

    グーグルが開発するAIチャット「Bard」。2月6日に発表され、3月21日より米国と英国のみで公開されていたが、4月18日午後(日時間)あたりから、日でもベータテストに参加できるようになった。 さっそく使ってみる 「Bard」は大規模言語モデル(LLM)「GPT-4」を使用したOpenAIの「ChatGPT」同様、Googleが開発するLLM「LaMDA(Language Model for Dialogue Applications)」の「軽量で最適化されたバージョン」を利用している。 ベータテストに参加するには、サイトの右下に表示されている「Join Waitlist」ボタンをクリックし、ニュースメールの購読にチェックを入れるだけでよい。

    グーグル「Bard」ついに日本公開 「ChatGPT」対抗のAIチャット
  • 画像生成AI 速いマシンは世界が違う (1/4)

    「Stable Diffusion」のような画像生成AIは、ゲーム開発の場面で実際に使い物になるのでしょうか。マウスコンピューターのクリエイター向けPC「DAIV」のDAIV DD-I9G90(NVIDIA GeForce RTX 4090搭載)とDAIV DD-I7N60(NVIDIA RTX A6000搭載)を比較しながら、筆者が開発に関わるインディゲーム「Project-GENESIS」での背景のプロトタイプ制作を通じて、その可能性を探りました。画像の出力(生成)速度だけであればRTX 4090に圧倒的に軍配が上がりますが、複数のアプリをまたがった作業をする場合にはVRAM(ビデオメモリ)搭載量が48GBと多いRTX A6000が生産性を高めると考えて良さそうです。コンピュータの世界ではいつの時代も「速さは正義」であることを、画像生成AIを実践で使おうとして改めて痛感しました。 2機

    画像生成AI 速いマシンは世界が違う (1/4)
  • グーグル、高クオリティかつ高速なテキスト画像生成モデル「Muse」を発表

    グーグルは1月2日、従来のモデルよりも大幅に効率的でありながら、最先端の画像生成性能をもつテキスト画像AI生成モデル「Muse」を発表した。 競合モデルと同クオリティかつ超高速化 近年「Stable Diffusion」やOpenAIの「DALL-E 2」など、テキストから画像を生成するAIは驚くべき進化を見せている。グーグルもすでに「Imagen」と「Parti」という画像生成AIを発表しているが、「Muse」はそのどれとも異なる新しいモデルだ。

    グーグル、高クオリティかつ高速なテキスト画像生成モデル「Muse」を発表
  • 1