はじめに 毎回忘れるので自分用のメモとして残しておきます。 Web上にSVGからPNGの変換サイトはいくつもありますが、画質が悪かったり、画像が小さすぎたりでほとんど使い物になりません。 SVGからPNGを簡単に変換できるコマンドを紹介します。 標準で入っているので何かをインストールする必要がありません。 コマンド
はじめに RailsでFace APIを扱う記事が少なく実装に一手間かかってしまったので、 初歩的ですが今後同じように開発する方がスムーズに実装できるようにこの記事が手助けになれば幸いです!m(_ _)m この記事に期待できること RailsでFace APIを扱うためのコードを理解できる リクエストするデータについての理解が深まる(おまけ) 前提としてREST APIについての知識があればより理解してもらえると思います。 Face APIについて 本題に入る前にFace APIとは?の説明をしておきます。 Microsoftが提供するAzure APIと呼ばれるサービスの一つです。 公式サイトはこちら Face API詳細についてはこちら 実装にあたりAPIキーを必要とするのでアカウント登録をしておく必要があります。 登録方法は沢山記事があるのでそちらを参考にしてください。 私はこの当た
機械学習を使ったサービス/アプリを開発しているとクライアントから画像をサーバーに送って推論して結果を返す,ということをよくやるのでメモ. 1枚しか送らない場合 今の所自分はこのパターンが多いです.いくつか実現方法はあると思いますが,リクエストボディに直接画像データのバイナリを入れて送る方法がシンプルで好きです.クライアント側のコードはこんな感じ. import json import urllib.parse import urllib.request # read image data f = open("example.jpg", "rb") reqbody = f.read() f.close() # create request with urllib url = "http://localhost:5000" req = urllib.request.Request( url,
Stable Diffusionの一般公開により、楽しく遊ばせていただいています。 公開以降、多くのフォーク(ブランチ)が公開され、手元の関連情報のブックマークが溢れてしまいそうですので、備忘録+自分用のブックマークメモとしてリストアップします。 詳しい導入方法はレポジトリに記載されているREADMEをご参照ください。 備忘録として記載しているため最新情報ではない場合もあります。 ローカル環境にインストールされる際は自己責任で、悪意あるコードが含まれる場合もありますのでくれぐれもご注意ください。 【CEO直撃】THE GUILD深津氏が画像生成AI「Stable Diffusion」開発元に聞く、AIビジネスの“新時代” | DIAMOND SIGNAL 8月に突如登場し、瞬く間にネットユーザーの注目の的となった画像生成AIの「Stable Diffusion」。開発元である英国のスタート
入力した文章に沿った画像を生成してくれるAI「Stable Diffusion」は、手軽に精細なイラストや写真を出力できることから大きな注目を集めてます。Stable DiffusionはNVIDIA製GPUを搭載したPC向けに開発されているのですが、Intel製CPU搭載マシンやApple Silicon搭載Macで動作させる方法が次々と編み出されています。新たに、MetaでAIやVRについて研究しているDivam Gupta氏がApple Silicon搭載Macで動作するUI付きのStable Diffusion実行環境「Diffusion Bee」を公開していたので、実際にM1チップ搭載iMacにインストールして使ってみました。 GitHub - divamgupta/diffusionbee-stable-diffusion-ui: Diffusion Bee is the ea
画像生成AIのStable Diffusionがオープンソースとして公開されましたね。さっそく動かしてみたいなと思って触ってみることにしましたが、手元にあるのはMacBookだけなので、なかなか大変でした。 ありがたいことに、先人がたくさんいるので参考にして環境構築ができました! たぶんそれなりにすぐにすんなり動かせるようになると思いますけど、今すぐやってみたくてトラブってる人の参考になればと、わりとなぐり書きで恐縮ですが書いておきます。 動作速度とか ちなみに気になる実行速度ですが、自分が使っているのはMacBookPro 14インチモデルの一番スペックが低いやつでして 8コアCPU、14コアGPU、16コアNeural Engine搭載Apple M1 Pro メモリ32GB です。 画像生成中は15〜20GBほどメモリを消費し、5分ほどで画像が6枚生成できます。 学習モデルを取得する
前提として、Stable Diffusionでエロ画像を出そうとしてもsafety checkerという機能が入っており、センシティブな画像を出そうとすると黒塗りになる。 (Stable DiffusionのSaaSであるDream Studioはぼかしだが、多分別の技術) https://github.com/huggingface/diffusers/releases/tag/v0.2.3 そこでGoogle Colabでちゃちゃっと環境を作り、なおかつNSFWを回避する。 1. 下記のリンクでノートを開く https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb 2. 下記の箇所を書き換える vvvvvvvvvvvvvvvvvv f
It is our pleasure to announce the public release of stable diffusion following our release for researchers [https://stability.ai/stablediffusion] Over the last few weeks, we all have been overwhelmed by the response and have been working hard to ensure a safe and ethical release, incorporating data from our beta model tests and community for the developers to act on. In cooperation with the tirel
要点 最先端機械学習モデル「Vision Transformer」に基づく、新たなレンズレスカメラの画像再構成手法を提案 提案した画像処理技術は高速に高品質な画像を生成できることを実証 小型・低コストかつ高機能であるため、IoT向け画像センシング等への活用に期待 概要 東京工業大学 工学院 情報通信系の潘秀曦(Pan Xiuxi)大学院生(博士後期課程3年)、陈啸(Chen Xiao)大学院生(博士後期課程2年)、武山彩織助教、山口雅浩教授らは、レンズレスカメラの画像処理を高速化し、高品質な画像を取得できる、Vision Transformer(ViT)[用語1]と呼ばれる最先端の機械学習技術を用いた新たな画像再構成手法を開発した。 カメラは通常、焦点の合った画像を撮影するためにレンズを必要とする。現在、IoT[用語2]の普及に伴い、場所を選ばず設置できるコンパクトで高機能な次世代カメラが
Adversarial Example とは 最近あちこちで応用の進んでいる深層学習ですが、内部がブラックボックスのこともあり、まだまだ謎が多いというのが現状です。そのような中、深層学習の不可解な挙動として最近話題になっているのが Adversarial Example です。呼ばれ方もいろいろで、adversarial attack や、adversarial perturbation と呼ばれることもあれば、画像関係の場合は adversarial image と呼ばれることもあります。いずれにせよ、簡単にいえば、分類器に対する脆弱性攻撃のようなものです。例えば、分類器が正しく分類できていた画像に、人の目では判別できない程度のノイズをのせることで、作為的に分類器の判断を誤らせることができるといったものです。 よく説明として使われるのが下の画像で、 Explaining and Harn
ファイルサイズが調整されたダミー画像を作成する方法 単純にダミー画像が必要であれば、様々なWebサービスが公開されているのでそれらを利用するのが簡単です。国内のサービスであれば、 placehold.jp が有名ですね。国内サーバーで運営されているので、レスポンスが良く快適です。 Placehold.jp|ダミー画像生成 モック用画像作成 http://placehold.jp/ 例えば、以下のようにするとダミー画像を取得できます。 <img src="http://placehold.jp/30/8aafff/ededed/400x150.png?text=hostingstock.net" alt="" /> 類似サービスが多数あります。 Placehold.it - Quick and simple image placeholders http://www.placehold.it
「なぜ見抜けなかったのか」 画像の選択を迫られるたびに俺は自問する。 進化の筋道を正しく予測するのは難しい。 遺伝的アルゴリズムの活用 2021年から、新たに習慣となった行為はあるだろうか。俺はある。PCの前に座り、二つの画像のうち、どっちの方がエッチかを選ぶ。これがモーニングルーティンとなっている。もちろんこれの話だ。 遺伝的アルゴリズムで最高にエッチな画像を作ろう! これまで何度も話題になっていたし、直近でも関連ツイートがバズっていたので、本記事を読む人の大半は知っているだろう。名前の通り、遺伝的アルゴリズムでエッチな画像を作るシステムである。人が画像を選択することで、よりエッチな画像が生き残り、高みへと一歩近づく。最初はノイズのようなモザイク画だったが、10,000世代を超えた現在では「女性の裸体」と認識できるものに仕上がっている。 0世代と10,000世代 現状について「最高にエッ
おわり 二つの画像のうち、どっちの方がエッチかを選んでください。 世代交代を経るごとに、だんだんとエッチな画像が表示されるようになるはずです。 Choose the lewder one, and you can make them more lewd. You will win when the AdSense on this site is stopped by Google because of "Sexually explicit content". ENGLISH よりエッチな画像を作るために、 ぜひ色んな人に広めてください。 ツイート ・展覧会ページでこれまでの画像を公開しています。 詳しい説明 スポンサーリンク みんなの好みを学習させて、「遺伝的アルゴリズム」によってエッチな画像を自動で作るためのシステムです。 遺伝的アルゴリズムとは、あるデータを目標に近づけるために使われる
みなさん、こんにちは。まどぎわです(・∀・) 今日は、mini_magicと使って画像にテキストを合成する方法をメモしておきますφ(..) mini_magicを使うと某匿名質問サービスみたいに画像に文字を合成する機能を結構簡単に作ることが出来ます🙌 ↓公式のリポジトリはこちら↓ github.com mini_magicの使い方 準備 mini_magicを使うには、ImageMagickというアプリがインストールされている必要があります。 まずはインストールされているかどうか確認してください。 $ convert -version Version: ImageMagick 6.9.9-40 Q16 x86_64 2018-07-14 http://www.imagemagick.org Copyright: © 1999-2018 ImageMagick Studio LLC Lic
これは何? Railsアプリケーションを扱うときに、画像周りを扱うのは必須。 必須事項の現時点でのベストプラクティスを記事に残す。 下記の環境で開発を行ってます。 環境 Mac OS High Sierra バージョン 10.13.6 Ruby 2.5.1 Rails 5.2.1 MySQL 5.7.23 RSpec CarrierWave MiniMagick Fog S3 CarrierWave gem 'carrierwave' => まずはGemを追加 bundle exec rails g uploader Picture => uploaderの設定ファイルを生成 => この設定ファイルについては後述 ▼ 単一画像 bundle exec rails g migration add_picture_to_users picture:string => 画像をDBで扱うためにカラ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く