引越して1ヶ月半、ようやく家にネットが通ったので何かコードを書こうと思いました。 Microsoft Azure Cognitive Servicesには便利そうなたくさんAPIがあります。 そのうちComputer Vision APIを使うと、画像を解析して説明文などを自動生成できます。 参考:過去の記事 s2terminal.hatenablog.com Computer Vision APIが吐き出す情報は英語か中国語です。 今回はさらにこれをTranslator Text APIで日本語化し、imgタグにして吐き出すプログラムを書いてみました。 例 Public Domain Picturesから適当にいくつか画像を取ってきて、説明文を付けてもらいました。 「木からぶら下がって緑のバナナの束」 <img alt="木からぶら下がって緑のバナナの束" src="http://www
米Microsoftの人工知能ラボMicrosoft Research AIは1月18日(現地時間)、自然言語のテキストの説明から画像を描くAIシステム「AttnGAN」を発表した。 下図は、「体が黄色で黒い羽を持ち、くちばしが短い鳥」という説明から描き起こした画像という。 Microsoftは「人間が検索エンジンBingで鳥を探せば鳥の絵を表示できる。だが、この(AIが描く)鳥の絵は、コンピュータがピクセルごとにゼロから描いたものだ。こうして描かれた鳥はリアルな世界には存在せず、コンピュータが思い描く鳥のイメージだ」と説明する。 現在開発中のこのAI技術「Attentional Generative Adversarial Network(AttnGAN)」は、画像のキャプションのようなテキストによる描写の個々の単語に注意を払うようにプログラムされており、従来のテキストから画像を描く技術
Google、任意の画像が技術的に審美的に美しいかを評価し1-10(10が最高得点)で採点するCNNベースの画像評価モデル「NIMA」を提案した論文を発表 2017-12-19 Googleは、画像に対して技術面と審美面の両方で訓練できるCNN(Convolutional Neural Network)ベースの画像評価モデル「NIMA(Neural Image Assessment)」を論文にて発表しました。 NIMA:Neural Image Assessment 本稿では、任意の画像に対して1から10(10が最高得点)の程度で評価の分布を生成し、スコアのそれぞれに尤度を割り当てるアプローチを提案します。 ユーザが技術的(ピクセルレベルの技術品質)に美しく、または審美的(美の本質)に美しく見えるような画像を予測するために訓練されたdeep CNNが紹介されます。 実験では、AVAなどの大
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く