並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 17 件 / 17件

新着順 人気順

tensorflowの検索結果1 - 17 件 / 17件

  • PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載

    Modular社がAI処理を高速化するプラットフォーム「MAX」をプレビュー公開。PyTorchやTensorFlow、ONNXなどのAIモデルと入れ替えるだけで処理が最大5倍高速になる。 Pythonの高速なスーパーセット「Mojo」言語を発表したことで話題となったModular社が、AI処理を高速化するプラットフォーム「MAX」(Modular Accelerated Xecution)のデベロッパーエディションをブレビュー公開しました。 MAX Developer Edition Preview has officially launched! It's a drop-in replacement for running and serving @PyTorch, @tensorflow and @onnxai models much faster and leverages the

      PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載
    • TFRecordとWebDatasetを使った分散並列学習とパフォーマンス調査

      はじめに Turing株式会社の自動運転MLチームでエンジニアをしている越智 (@chizu_potato)と塩塚 (@shiboutyoshoku) です。 Turingが目指す自動運転は、大量のデータで学習された非常に賢い機械学習モデルを活用することです。そのために、走行パートナーの方たちと協力して創業時からこれまで大量の走行データを取得してきました。走行データは車両に取り付けられた複数カメラによる360度をカバーした動画と、そのときの速度やGPSなどの走行ログを含んでいます。データサイズは80TBを超え、時間換算で3500時間程度です。 これだけのデータサイズでモデルを学習するためには、1枚のGPUだけで頑張るには限界があり複数のGPU (multi-GPU) による分散並列学習が必要となってきます。しかし、ただ分散並列学習を行うだけではmulti-GPUに対し、データの入出力 (I

        TFRecordとWebDatasetを使った分散並列学習とパフォーマンス調査
      • Googleの機械学習ライブラリ「TensorFlow」がWindowsネイティブ対応を終了/今後は「WSL 2」へのインストールを

          Googleの機械学習ライブラリ「TensorFlow」がWindowsネイティブ対応を終了/今後は「WSL 2」へのインストールを
        • ChatGPTを駆使して、Raspberry PiとTensorflowを使ってドア監視をできるようにした - Qiita

          ChatGPTを駆使して、Raspberry PiとTensorflowを使ってドア監視をできるようにしたPythonOpenCVRaspberryPiTensorFlowChatGPT chatGPTを駆使して、玄関の鍵が閉まっているかどうかを監視するプログラムを作りました。 はじめに 今回の要約 自分はとにかく玄関の鍵を閉め忘れることが多く、家族にも怒られていた Raspberry Piとwebカメラが家にあった 色々調べたところ、機械学習の部分はGoogle Cloud Visionで無料実装できる すでに先駆者のブログは存在する:https://r-kurain.hatenablog.com/entry/2019/10/17/211134 ある程度ライブラリが古い部分や、多少わかるOpenCVへのリライトについては、ChatGPTにすべて任せれば実装できるのではないか ある程度構想

            ChatGPTを駆使して、Raspberry PiとTensorflowを使ってドア監視をできるようにした - Qiita
          • LLMで勝負するには、1000億円必要か? - Vengineerの戯言

            はじめに 学習用AIチップをTSMC 7nmで開発するには、100億円必要だよね。とお話したのが2017年頃 TensorFlow XLAの可能性, Deep Learning Acceleration 勉強会(2017.09.03 TensorFlow XLA とハードウェア, 2017年9月30日(土)のChainer Meetup #6 ざっと、6年前。この頃はまだ 7nm でチップが出てきてない時です。 その後、AI Cloud学習用スタートアップが何社立ち上がります。AI Cloud学習用スタットアップでは、7nmではなく、16nmで最初のチップ(Graphcore、Cerebras)を開発していきます。その後、チップが出来上がり、システムとして組み上げ、量産し、販売するまでに200-300億円ぐらい必要になることがわかりました。 TSMC 7nmを使って、NVIDIAのA100

              LLMで勝負するには、1000億円必要か? - Vengineerの戯言
            • tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!

              tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!:TensorFlow 2+Keras(tf.keras)入門 TensorFlow+Kerasの最新情報として、Keras 3.0のリリースに伴い、TensorFlowから独立し、TensorFlow 2.16以降でKeras 3がデフォルトとなったことについて紹介します。また、Keras 3(TensorFlowバックエンド)での書き方や、今後のディープラーニングライブラリの選び方についても私見を示します。 連載目次 もう4年も前になりますが、2020年5月に「マルチバックエンドKerasの終焉(しゅうえん)、tf.kerasに一本化」という記事を書きました。しかしその後、逆の動きが起きています。本稿では、前回の記事をフォローアップする目的も兼ねて、最新の状況をお伝えします。 そもそもKer

                tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!
              • Google、Flutter用TensorFlow Liteプラグインを正式リリース

                CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

                  Google、Flutter用TensorFlow Liteプラグインを正式リリース
                • 深層学習(keras)でリアルタイムにリップシンクさせるモデルを作った - Qiita

                  概要 リップシンクとは, ゲームのキャラクターなどが口をパクパクさせるやつです. 面白そうなので, なんとなくこれを作ってみました. リップシンクの手法は軽く調べた限り 手動で頑張る 音量の大小でテキトーに口動かす 映像から口の形を引っこ抜く 音から口の形を類推する があるようです. 今回は一番下の音から口の形を類推させてみました. モデルの方針 声のデータから口の形≒母音の種類を当てる分類モデルを作ります. そのために, データセットとして「音声」と「母音の文字」のセットを作ります. データセットについて 方針としては 「音源」と「その音源の文字起こし」のセットを取得 「その音源の文字起こし」を仮名に直す 「音源」のどの時間に, その仮名を言っているのか割り当てる 「音源」と「その音源の文字起こし」のセットを取得 「音源」と「その音源の文字起こし」の2つがセットになっているデータを片っ端

                    深層学習(keras)でリアルタイムにリップシンクさせるモデルを作った - Qiita
                  • Keras: Deep Learning for humans

                    Introducing Keras Core: Keras for TensorFlow, JAX, and PyTorch. We're excited to share with you a new library called Keras Core, a preview version of the future of Keras. In Fall 2023, this library will become Keras 3.0. Keras Core is a full rewrite of the Keras codebase that rebases it on top of a modular backend architecture. It makes it possible to run Keras workflows on top of arbitrary framew

                    • Kerasでまた複数のバックエンドが使えるようになるらしい - Qiita

                      はじめに pythonの機械学習ライブラリであるKerasは、単体では動かず、2023年8月現在はTensorflowをバックエンドとして動くようになっています。ですが2023年秋リリース予定の3.0で、再びTensorflow以外のバックエンドを使えるようになるらしいです。 この記事の要約 Keras 3.0でバックエンドが選べるようになる Tensorflow、PyTorch、Jax、Numpyのいずれかを選択可能(デフォルトはTensorflow) Keras3.0で書いたコードは、(特定のバックエンドに依存するコードを書いてない限り)どのバックエンドに切り替えても動作する Kerasについて ここはKerasって何ぞやの方へ説明です。 KerasはGoogle社のFrançois Chollet氏を中心として開発されている機械学習ライブラリです。それまで複雑な処理の実装が必要であっ

                        Kerasでまた複数のバックエンドが使えるようになるらしい - Qiita
                      • What's new in TensorFlow 2.13 and Keras 2.13?

                        Posted by the TensorFlow and Keras Teams TensorFlow 2.13 and Keras 2.13 have been released! Highlights of this release include publishing Apple Silicon wheels, the new Keras V3 format being default for .keras extension files and many more! TensorFlow Core Apple Silicon wheels for TensorFlow TensorFlow 2.13 is the first version to provide Apple Silicon wheels, which means when you install TensorFlo

                          What's new in TensorFlow 2.13 and Keras 2.13?
                        • プロファイラを使用した TensorFlow のパフォーマンス最適化  |  TensorFlow Core

                          プロファイラを使用した TensorFlow のパフォーマンス最適化 コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 このガイドでは、TensorFlow Profiler で提供されているツールを使用して、TensorFlow モデルのパフォーマンスを追跡する方法を説明します。また、ホスト(CPU)、デバイス(GPU)、またはホストとデバイスの両方の組み合わせでモデルがどのように機能するかを確認します。 プロファイリングは、モデル内のさまざまな TensorFlow 演算(op)によるハードウェアリソース消費(時間とメモリ)を把握し、パフォーマンスのボトルネックを解消して最終的にモデルの実行を高速化するのに役立ちます。 このガイドでは、プロファイラのインストール方法、利用可能なさまざまなツール、プロファイラのさまざまなパフォーマンスデータ収集モード、およ

                            プロファイラを使用した TensorFlow のパフォーマンス最適化  |  TensorFlow Core
                          • GoogleとIntelが共同開発、Intel GPUでJAXモデルを高速化するPJRT API登場

                            GoogleとIntelが共同開発、Intel GPUでJAXモデルを高速化するPJRT API登場:AIフレームワークへのハードウェア最適化が容易に GoogleはPJRTの初のプラグインPJRT APIをIntelと共同開発したことを発表した。PJRT APIを実装することでIntel GPU上でのJAXモデルの実行や、XLAアクセラレーションを使用したTensorFlowおよびPyTorchモデルの初期Intel GPUサポートも可能になる。

                              GoogleとIntelが共同開発、Intel GPUでJAXモデルを高速化するPJRT API登場
                            • TensorFlow Extended、Vertex AI Pipelines、Cloud Build を使用した MLOps のアーキテクチャ  |  Cloud アーキテクチャ センター  |  Google Cloud

                              デジタル トランスフォーメーションを加速 お客様がデジタル トランスフォーメーションに乗り出したばかりでも、あるいはすでに進めている場合でも、Google Cloud は困難な課題の解決を支援します。

                                TensorFlow Extended、Vertex AI Pipelines、Cloud Build を使用した MLOps のアーキテクチャ  |  Cloud アーキテクチャ センター  |  Google Cloud
                              • TFXとは何だったのか、現状どうなっているのか - Qiita

                                この記事では機械学習パイプラインを本番環境にデプロイするためのエンドツーエンドなプラットフォームの提供を目指す、TFXについて述べます。 TL;DR The TFX User Guide が一番詳しいのでこれを読みましょう。 TFX とは TensorFlow Extended (TFX) は次の3つのうちのいずれかを指します。 機械学習パイプラインの設計思想 設計思想に基づいて機械学習パイプラインを実装するためのフレームワーク フレームワークの各コンポーネントで用いられるライブラリ 以降ではまず、設計思想としての TFX に触れ概略を紹介します。次に、設計思想に基づき、コンポーネントを機械学習パイプラインとしてまとめ上げ、構築を行うライブラリについて紹介します。最後に、各コンポーネントで用いられるライブラリを見ることで、それぞれのライブラリが提供する機能について紹介します。 設計思想とし

                                  TFXとは何だったのか、現状どうなっているのか - Qiita
                                • TensorFlow for Python の深顔検出フレームワーク「retina-face」のインストール

                                  TensorFlow for Python の深顔検出フレームワーク「retina-face」のインストールについて解説しています。 「retina-face(https://github.com/serengil/retinaface)」は、顔のランドマークを備えたPython用の深層学習ベースの最先端の顔検出器です。 ■Python 今回のPythonのバージョンは、「3.9.9」を使用しています。(Windows11)(pythonランチャーでの確認) ■retina-faceをインストールするretina-faceをインストールを行いますが、今回はpipを経由してインストールを行うので、まずWindowsのコマンドプロンプトを起動します。 pip install retina-face起動後、上記のコマンドを入力し、Enterキーを押します。 なお、今回は、pythonランチャーを

                                    TensorFlow for Python の深顔検出フレームワーク「retina-face」のインストール
                                  • Kerasモデルの保存と読み込み  |  TensorFlow Core

                                    Kerasモデルの保存と読み込み コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 はじめに Keras モデルは以下の複数のコンポーネントで構成されています。 アーキテクチャー/構成(モデルに含まれるレイヤーとそれらの接続方法を指定する) 重み値のセット(「モデルの状態」) オプティマイザ(モデルのコンパイルで定義する) 損失とメトリックのセット(モデルのコンパイルで定義するか、add_loss()またはadd_metric()を呼び出して定義する) Keras API を使用すると、これらを一度にディスクに保存したり、一部のみを選択して保存できます。 すべてを TensorFlow SavedModel 形式(または古い Keras H5 形式)で1つのアーカイブに保存。これは標準的な方法です。 アーキテクチャ/構成のみを(通常、JSON ファイルとして

                                      Kerasモデルの保存と読み込み  |  TensorFlow Core
                                    1