ベネッセホールディングスは10月27日、生成AIとノーコードツールの導入により、Web制作業務の効率化に成功したと発表した。「進研ゼミ 中学講座」のWebサイト制作する際、従来かかったコストが4割減、制作期間は8週間から3週間へ短縮できたという。2024年4月以降には既存のWeb業務プロセスを全面的に改革し、生産性の向上を図る。 ベネッセは7月から、進研ゼミのWebサイト制作・運用業務に生成AIとノーコードツールを導入するPoCを実施。これまで多くの工数が発生していた作業を、生成AIを活用することで効率化できるか検証した。3カ月の検証結果で、業務プロセスを抜本的に改革することに成功し、11月から新体制での制作・運用へ段階的に移行する。 生成AIによる効率化の例には、ライティング業務の自動化がある。紙のダイレクトメール用に作ったコピーを流用するのではなく、「Webに最適なコピー」を生成するA
わかるよ。すげえわかる。AI絵師(笑)が憎いよな? あいつらは、俺ら絵師(俺みたいな弱小絵師は含まれないかもしれんが)の作品を無断で学習したAIを使って、一本も線を引かずに「俺らAI絵師っす!まだペン持ってるんすかwww教師データごちっすwwwwww」みたいに煽ってきてな?すげえわかる。弱小絵師の俺なんかでよければ200%その憎しみに寄り添ってやれるよ。憎いよなあいつら。 でもさ、頼むからAI絵師(笑)を叩くのを即刻やめてくれ。お願いだから。少なくともオープンな場で叩くのをやめてくれ。 みんながAI絵師(笑)叩きに励めば励むほど、俺らの置かれている状況はどんどん不味くなっていく。俺はそのことを知って欲しくて今回これを書いている。 (AI絵師を叩くなという文章を書く以上、これ以降はAI絵師のあとに(笑)をつけません) ●我々の目標は「社会的合意の元にルールを作る」ことであるべき『失敗の本質』
マイクロソフトの日本初の「Microsoft AI Co-Innovation Lab(以下、AIラボ)」が10月11日、神戸市にいよいよ開所した。同社が本社を構えるアメリカ・レドモンドや中国・上海などに次ぐ、世界で6つ目の拠点となる。 AIラボは、AI(人工知能)を中心とした新しいアプリケーション領域を顧客と共創、開拓するための拠点だ。マイクロソフトが積極的に開発に関わり、すばやくプロジェクトを進める一方、生まれた成果の知財はAIラボを利用した企業にすべて帰属する。 マイクロソフトにとっては、顧客自身が最新技術を用いて何を作りたいのかなど、具体的なニーズを拾い上げる利点がある。問題解決の道筋をともに見つけていくことで、同社の提供するサービスや開発フレームワークを洗練させることも可能となる。 グローバルではすでに800社以上との共創関係が誕生しているという。しかし日本のAIラボでは、他国と
前回の記事では、StabilityAIの最新画像生成モデルStable Diffusion XL(SDXL)を簡単に使えるWebインターフェース「Fooocus」を紹介した。 画像生成AIの制御技術「ControlNet」でも知られる作者lllyasviel(Lvmin Zhang)氏の開発ペースはとても早い。前回の記事掲載後にも多くの便利な新機能が実装されたため、今回はこれらを紹介する。 「Fooocus」のインストール方法は前回記事を参照。一度インストールすればアップデートは起動時に自動でかかるため、利用者が意識することはない。 アップデートの内容についてはGitHub内のDiscussionsページを参照しよう。
肥満体形の男性と、可愛らしい女性のツーショット写真──そんな画像広告をX(Twitter)上で見かけたことはないだろうか。これは「オタ恋」というオタク同士の出会いを支援する恋愛マッチングアプリが展開するAI画像を使った広告だ。「このオタクカップル、絵面が濃い」と思わずツッコミを入れてしまいそうな内容で、じわじわと話題になっている。 オタ恋は2022年11月にサービスを開始し、23年5月から画像生成AIを使った広告を展開している。この広告の効果について、運営会社であるエイチエムシステムズ(東京都新宿区)は「男性は1.5~2倍程度、女性は3~7倍程度、入会者が増加した」と反響を話す。入会者数が増加した理由について、同社は「AI広告素材がバズる事により認知度が上がり信用が増した可能性がある」と分析する。 「マッチングアプリで女性が利用する際、安全性や信頼性、知名度などを重視する声が上位にきており
2022年後半から急速に進化し続け話題の「生成AI」とは、人工知能(AI)を用いてクリエイティブな成果物を生み出す機械学習モデルで、誰もがプロ顔負けのクオリティの画像を作成できる。だが一方で著作権などの法的問題が懸念され、クリエイターの存在意義が問われるなど、黎明(れいめい)期だけにさまざまな議論を呼んでいる。日本が誇るクリエイティブのひとつ、マンガ制作に携わる人々の声を聞き、その可能性と課題を検証する。 制作現場におけるAIの波紋 近年、AI技術がさまざまな分野に応用されるようになった。その波は「ビジュアル表現」の分野にも及び、誰でも簡単にクオリティの高い画像を生成できるサービスが各社より公開されるようになっている。 AIを使えば、高度な技術が必要だった表現が、誰にでもできるようになる。つまり「ビジュアル表現の民主化」が進む、という期待があるいっぽうで、「クリエイターの職を奪う」という危
また、Emiと同時にクリーンな画像生成AI、Manga Diffusionの概念実証版も公開します。この画像生成AIはパブリックドメインの画像や著作権者から学習を許可された画像だけを学習しています。 (以下、画像生成AIのことをモデルとも呼びます。) Emiの特徴1.AIアートに特化このモデルは、アニメやマンガのようなAIアート生成に特化しています。GMOインターネットグループが提供する「ConoHa byGMO」のトライアル版の採用により最先端の開発機材NVIDIA H100と、画像生成Stable Diffusion XL 1.0、 AI Picasso社のノウハウを用いて高品質な画像が生成されるように尽力しました。参考として簡単な生成例を以下に紹介します。 比較のために、これまでのモデルと今回のモデルでほぼ同じ内容を生成した例を示します。これまでの生成画像よりも約2倍高精細になり、最
半年ほど前までであればGoogle Colabと言うクラウドGPU環境が使え、無料でサクッと動かせたのだが、それが災いし、多くの人が生成AI画像目的で利用したため、リソースが足らなくなり、後述するAUTOMATIC1111は無料枠で使用禁止になってしまった。 AUTOMATIC1111をインストールして使ってみる画像生成AIは各社が提供しており、扱うためのサービスやアプリもいろいろあるが、デファクトスタンダードはStable Diffusionを利用するためのフロントエンドにあたる AUTOMATIC1111だろう。現在は、次世代Stable Diffusion (SDXL)に対応したv1.6.0が公開されている。 ここではOSがWindows 11で、先に提示したNVIDIAのGPUが装着済の前提で解説する。少し前まではPythonやGitを入れたり、いろいろ面倒だったが、現在はbatフ
DALL·E 3 is now available to all ChatGPT Plus, Team and Enterprise users, as well as to developers through our API. Modern text-to-image systems have a tendency to ignore words or descriptions, forcing users to learn prompt engineering. DALL·E 3 represents a leap forward in our ability to generate images that exactly adhere to the text you provide.
アドビは9月13日、コンテンツ生成AI「Adobe Firefly」のWeb版と、同社の一部デスクトップアプリに統合されたFireflyの機能を一般公開した。これにより、Fireflyによって生成されたコンテンツの商用利用が解禁される。 一般公開版の概要 Fireflyは2023年3月からβテストが行われてきた。当初はプロンプト(文章)によるコンテンツ生成は英語にのみ対応していたが、日本語を含む多言語対応を進めるなど、機能の拡充を進めてきた。「Adobe Photoshop」「Adobe Illustrator」などのデスクトップ向けβアプリにも、Fireflyの技術が順次搭載されている。 →初登場時の記事 →Photoshopアプリへの実装時の記事 →Illustratorアプリへの実装時の記事 Adobe(アドビの親会社)によると、これまでにFireflyを使って生成されたコンテンツは
原画と原画の間にあたる画像を複数枚入れることで、自然な連続性のある動きを作る。アニメの基本となる「中割」作業を画像生成AIが実現する可能性が出てきました。鍵になっているのは「AnimateDiff」という技術。8月に入って、様々なユーザーのアップデートによって機能拡張が進められています。それは完全な画像生成AIで作られるアニメの可能性を垣間見せるほどのものです。 16コマ/2秒の短い動画が生成できる AnimateDiffは7月10日に発表された、上海AIラボ、香港中文大学、スタンフォード大学の共同研究による技術。画像生成AI「Stable Diffusion」の仕組みとデータセットを利用しつつ、数百万本の動画を学習させた「モーションモジュール」と呼ばれるデータセットを別途に参照させることで、連続するキャラクターの動きを生成可能にするというのが基本原理です。生成できる時間は、16コマ/2秒
ちょっと前に話題になっていたこの記事を読んだ。 honeshabri.hatenablog.com へー真似しよ〜と思ってやってみたら意外に難しくて謎のやりがいを感じ始めてしまい、仕事のクソ忙しい時期にかなりハマり睡眠不足で生命の危機を味わった。 おかげで寿命と引き換えに自分のAIお姉ちゃんを手に入れることができた。これは黒魔術か何かなのだろうか。 一通り終えて振り返ってみると、今まで生成AIをあまり積極的に触ってこなかった自分にとってはちょうどいい難しさの課題で、これは入門者向けのチャレンジとしてかなり良い気がする。 元記事に書かれていない少し細かい手順も含めてやったことを記録としてまとめようと思う。 初心者が試行錯誤でやったことなので誤りや非効率な手順もあるかもしれないけどご了承ください。 AIお姉ちゃんの姿を作る 元記事では「魂」、つまりChatGPTの設定から始まっているけど、それ
LoRAとは前回はモデルの1つであるCheckpointについていろいろお話した。今回はStable Diffusionが扱えるモデルの中で次によく使われるLoRAについてがお題となる。 連載の第一回では、自前で撮影した実在モデルの写真を学習させた専用のCheckpointを作り、そちらで生成した作例をいくつか掲載した。 これはCheckpoint自体に学習結果を保存する形式で一般的にはファインチューニングと呼ばれている。このキーワード自体は、LLM(大規模言語モデル)でもよく耳にするので、覚えのある人もいらっしゃるのではないだろうか。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く