Research indicates that carbon dioxide removal plans will not be enough to meet Paris treaty goals
Google Driveは、写真や文章、イラストなどを保管できるオンラインストレージサービス。15GBまで無料で使えるため、データの保存・共有用に使っている人もいるだろう。 そんなGoogle Driveの、意外と知られていない機能が話題になっている。Google Driveに画像をアップロードし、その画像をGoogle ドキュメントで開くと、画像の文字をテキストデータ化してくれるという。 手順はこうだ。まず、PCで文字起こしをしたい画像をGoogle Driveにアップロードし、その画像を右クリック。「アプリで開く」から「Google ドキュメント」を選択して開けば終了。対応ファイル形式は「JPEG」「PNG」「GIF」「PDF」。 最適な状態で書き起こすには、ファイルサイズを2MB以下にし、テキストの高さを10ピクセル以上に。画像の向きが間違っている場合は回転させてからアップロードし、
写真の背景からどこで撮影したかを特定できるAI「PlaNet」が、グーグルによって開発されました。 9,000万枚もの写真をディープラーニング 米メディアMIT Technology Reviewが報じたところによると、グーグルのコンピュータビジョン研究者であるTobias Weyand氏が、写真に映り込んでいる風景を素早く特定するAI「PlaNet」を開発したことが分かりました。 「PlaNet」は、位置情報を伴った9,000万枚以上もの風景をディープラーニングによってインプットすることによって完成したもので、写真をピクセル単位にまで分解し、ピクセルと記憶したデータを相互に照合することによって、特定を可能にするというものです。 230万枚の時点で人間を凌駕 230万枚をディープラーニングさせた段階で、すでに「PlaNet」は撮影された国を28.4%の精度で、大陸を48%で特定することが可
(この記事はGoogle Cloud Platform Advent Calendar 2015の12月3日分の記事です) Cloud Vision APIと私 Googleに入ってからまもなく5年、Google Cloud Platformのデベロッパーアドボケイト(エバンジェリストみたいな役割)の仕事に就いてから1年が経ちました。仕事の半分はアジア地域向けの開発者コミュニティ支援で、残り半分はGCPの新製品ローンチの支援をグローバル向けに行っています。 特にここ半年は、TensorFlowをはじめ、GCPの機械学習系プロダクトのローンチ支援にフォーカスしています。TensorFlowはその序章で、公開前からAlphaカスタマー向けのスライドを作ったり説明やデモしたりしていました。 そうしたGCPの新しい機械学習系サービスのひとつが、Cloud Vision APIです。これはGoogl
Googleが、GoogleフォトやSafeSearchで採用している機械学習画像認識機能をアプリに追加できる「Cloud Vision API」をGoogle Cloud Platformユーザー向け限定プレビューとしてリリースした。 米Googleは12月2日(現地時間)、アプリに機械学習による画像認識機能を追加できる「Cloud Vision API」(プレビュー)をリリースしたと発表した。「Google Cloud Platform」を利用する開発者はこちらから限定プレビューに申し込める。少なくともプレビュー期間中は無料だ。 Cloud VisionはREST APIで、画像を数千のカテゴリに分類し、顔を認識すると表情から感情を推測し、多数の言語の文字を認識する。
スマホで撮った写真からガラスの反射やフェンスなどの障害物を消し去るアルゴリズム、GoogleとMITの研究者が開発 スマートフォンで写真を撮影するとき、目当ての被写体とカメラとの間にガラスや金網フェンスといった障害物があると、自分がガラスに反射して映り込んだり、フェンスが邪魔をしたりして、思い通りの絵に仕上がらないことが多々あります。GoogleとMITの研究者は、被写体とカメラセンサーとに挟まれている物体が写真に焼き付けられるという当たり前の現象に反抗すべく、新たにアルゴリズムによる解決を試みています。 どういった技術なのかは、上のアニメーションGIF画像を見れば一目瞭然。手前に存在していた金網フェンスを綺麗さっぱり除去しています。 このアルゴリズムは、前景と背景を区別し、邪魔モノとなっている前景部分を消し去ります。理屈を簡単に説明すると、GoogleカメラやiPhoneの標準カメラとい
人間は写真を見てそれがどういった場面なのかを説明することができますが、これはコンピューターにとっては非常に難しいことです。しかし、Googleの研究者は機械学習システムを用いて一度写真を見れば自動でその状況を説明するようなキャプションを生成できる、というまるで人間のような能力を持ったシステムの開発に成功しています。 Research Blog: A picture is worth a thousand (coherent) words: building a natural description of images http://googleresearch.blogspot.jp/2014/11/a-picture-is-worth-thousand-coherent.html 近年の研究では、物体の検出や分類、ラベル付けなどの技術が大幅に向上しています。しかし、人間のように複雑な状
Microsoft Researchは、Windows Phoneのカメラを犬に向けてCortanaに「この犬の種類は?」と聞くと正確な犬種を答えるデモを披露した。深層学習研究の一環である画像認識プロジェクト「Project Adam」の成果という。 米Microsoftの研究部門、Microsoft Researchは7月14日(現地時間)、本社キャンパスで開催中の年次カンファレンス「Faculty Summit 2014」でディープラーニング(深層学習)研究プロジェクト「Project Adam」の成果を披露した。 Project Adamは、機械学習と人工知能(AI)の研究プロジェクトで、その目的はあらゆる物体を視覚的に認識することという。 このプロジェクトで、インターネット上の1400万件以上の画像データを2万2000のカテゴリーに分類した画像データベースを利用する「深層神経ネット
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く