"TensorFlow Serving: protocol buffer形式にdumpし、それをC++で実装された実行環境に読み込ませることで高速なservingを実現 / ONNX Runtime: これまではあくまで自分でserving用のサーバーを実装しないといけませんでした" 2019

sh19910711sh19910711 のブックマーク 2024/04/16 10:56

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

機械学習モデルのServingとONNX Runtime Serverについて - Qiita

    機械学習を実際のプロダクションで使う時に大切な概念として serving というものがあります。以下、このservingの概要にさらっと触れ、つい最近しれっとリリースされたMS社製のOSS、ONNX Runtimeでのservingにつ...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう