タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

googleとTPUに関するInoHiroのブックマーク (2)

  • Google の Tensor Processing Unit (TPU) で機械学習が 30 倍速くなるメカニズム | Google Cloud 公式ブログ

    * この投稿は米国時間 5 月 12 日に投稿されたもの(投稿はこちら)の抄訳です。 Posted by 佐藤一憲, Staff Developer Advocate, Google Cloud Cliff Young, Software Engineer, Google Brain David Patterson, Distinguished Engineer, Google Brain Google 検索、ストリートビュー、Google フォト、そしてGoogle 翻訳。これらのサービスに共通するのは、いずれもニューラルネットワーク(NN)の計算処理の高速化のために Google の第一世代の Tensor Processing Unit (TPU) が用いられている点です。 Google の Tensor Processing Unit (TPU) が搭載された回路基板(左)と、 G

    Google の Tensor Processing Unit (TPU) で機械学習が 30 倍速くなるメカニズム | Google Cloud 公式ブログ
  • Googleの深層学習チップ「TPU」に第2世代、性能は180テラFlops

    Cloud TPUは1枚のボードにプロセッサを4個搭載する。この1枚のボードで1秒間の演算回数は秒間180兆回(180テラFlops)になる。さらに64個のCloud TPUを独自の高速ネットワークによって相互接続して「TPUポッド」を構成すると、その演算回数は11.5ペタ(1万1500テラ)Flops、つまり秒間1京(1兆の1万倍)回を超える(写真2)。 理化学研究所のスーパーコンピュータ「京」は1秒間に1京回の演算ができることから京と名付けられた。つまり10ペタFlopsである。京の10ペタFlopsは倍精度の浮動小数点演算での数字であり、一方のCloud TPUの浮動小数点演算の精度は不明であるものの(第1世代のTPUでは8ビットの整数演算のみを実行していた)、1秒当たりの演算回数だけなら1個のTPUポッドが8万個のプロセッサーによって構成する京を上回ることになる。 GoogleのJ

    Googleの深層学習チップ「TPU」に第2世代、性能は180テラFlops
  • 1