並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 62件

新着順 人気順

エッジデバイスの検索結果1 - 40 件 / 62件

エッジデバイスに関するエントリは62件あります。 機械学習AI人工知能 などが関連タグです。 人気エントリには 『ラズパイ4も対応しているCPU超高速Stable diffusionのFastSDCPUで爆速生成AI。標準4分/枚がOpenVINOでわずか18秒/枚。お金をかけずに爆速化最高。オススメ』などがあります。
  • ラズパイ4も対応しているCPU超高速Stable diffusionのFastSDCPUで爆速生成AI。標準4分/枚がOpenVINOでわずか18秒/枚。お金をかけずに爆速化最高。オススメ

    Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き @kapper1224 CPUでStable diffusionが3分ちょっとかかるので、ラズパイ4も対応しているFastSDCPUを入れたら50秒になったw OpenVINOとか入っているらしい。AMDのCPUだけどw ターミナル画面左側が普通のSD、右側がFastSDCPU これだけ速度差があるとありがたい github.com/rupeshs/fastsd… pic.twitter.com/zflPRbldt4 2024-01-20 21:08:00

      ラズパイ4も対応しているCPU超高速Stable diffusionのFastSDCPUで爆速生成AI。標準4分/枚がOpenVINOでわずか18秒/枚。お金をかけずに爆速化最高。オススメ
    • Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】 - Qiita

      Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】RaspberryPiTensorflowLitexnnpack 1. はじめに 今から半年前の2020年6月、ラズパイ4上でTensorFlow Liteを使った様々なAI認識アプリを動かしてみて、その動作速度をまとめました。 当時のTensorFlowはバージョン2.2でしたが、現在は 2.4(rc4) へと進んでいます。進化が極めて速いDeepLearningの世界において、この半年間でTensorFlow Liteはどう変化したでしょうか。もし「手持ちのアプリは何も変えてないのに、TensorFlow Liteを新しくするだけでめっちゃ速く動くようになったぜ」というのだと嬉しいですよね。 本記事では、前回計測に用いたアプリを再び最新版のTensorFlow Lite環

        Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】 - Qiita
      • ソニー、ラズベリーパイへ出資。エッジAI強化で協業

          ソニー、ラズベリーパイへ出資。エッジAI強化で協業
        • 【エッジAI】MITがまた何かすごいのを作ったようです。有名AI学会のNeurIPSで発表した内容を解説(コード・動画あり) | AIDB

          ホーム 実装 【エッジAI】MITがまた何かすごいのを作ったようです。有名AI学会のNeurIPSで発表した内容を解説(コード・動画あり) 【エッジAI】MITがまた何かすごいのを作ったようです。有名AI学会のNeurIPSで発表した内容を解説(コード・動画あり) 2020/12/18 実装 AIDB Research

            【エッジAI】MITがまた何かすごいのを作ったようです。有名AI学会のNeurIPSで発表した内容を解説(コード・動画あり) | AIDB
          • USBに挿すだけ!Linuxで動く「M5Stack UnitV2」AIカメラの実力を試してみた! - paiza times

            どうも、まさとらん(@0310lan)です! 今回は、親指サイズの超小型ボディにLinuxを搭載し、さらにAI開発エディタやカメラなども詰め込んだ強力なカメラモジュールをご紹介します。 手持ちのパソコンにあるUSBに挿すだけですぐに起動し、専用の開発エディタを使ってAIカメラを試したりトレーニングをしたりなどが簡単にできるのが特徴です。 さらに顔認識、オブジェクト分類、トラッキング、カラー検出…など10種類以上の機能がすぐに利用できるうえ、Jupyter Notebookでモジュールを制御できるので便利です。 AIを活用したい人やIoT開発に興味がある人も含めて、ぜひ参考にしてみてください! ■「M5Stack UnitV2 AI カメラ」とは モニターやセンサー類などが全部入りの小型マイコンモジュール「M5Stack」シリーズで知られる中国のスタートアップ企業をご存知でしょうか。 同社が

              USBに挿すだけ!Linuxで動く「M5Stack UnitV2」AIカメラの実力を試してみた! - paiza times
            • Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く? - Qiita

              1. はじめに 世の中にはDeepLearningの学習済みモデルを公開してくださっている方がたくさんいらっしゃいます。本記事は、そのうちのいくつかをラズパイ4で動かしてみて、いったいどれくらいの速度で動くのかを検証したものです。 計測対象モデルとして、Mediapipe および TensorFlow.js、TensorFlow Lite models で公開されている学習済みモデルを利用させて頂きました。またモデル実行フレームワークとしては、モバイル向けに整備が進む TensorFlow Lite (C++) を用いました。 計測にあたっては、公開されているモデルをそのまま動かすだけでなく、一般的な高速化手法である下記の2手法を両方試し、その効果も計測しました。 [1] モデルをint8量子化する方法 演算精度に多少目をつぶる代わりに、NEON等のSIMD演算器による並列処理の並列度をさ

                Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く? - Qiita
              • エッジで機械学習ってなんだろう -ブラウザ、スマホ、IoT機器での推論を概観する- - Qiita

                本内容は、技術書典7 合同本『機械学習の炊いたん2』収録の、「エッジで機械学習」記事を公開したものです。内容は2019年9月時点の調査等に基づきます。 最近Raspberry Pi 4の検証結果などをみていると、エッジ、かつCPUでもそれなりの速度で動くケースもみられます。またこの後にM5StickV(K210)などを触りましたが、専用チップも使い所があります。今後、それらの動きもできれば補足したいと思います。 9/12-22に開催された技術書典9では、新刊『機械学習の炊いたん3』を頒布しました。私は、「AIエンジニア、データサイエンティストのための経営学、ソフトウェア工学」を寄稿しています。他にも機械学習のビジネス、エンジニアリング、数理までもりだくさん。気になられたら、ぜひご覧ください! 他にも、技術書典9「機械学習、データ分析」系の新刊リスト - Qiitaの通り、たくさんの本が出品

                  エッジで機械学習ってなんだろう -ブラウザ、スマホ、IoT機器での推論を概観する- - Qiita
                • RaspberryPi 3 Model B+でIoT監視カメラをつくる(その7 カメラのAI化) | そう備忘録

                  追加インストール機械学習の為にGoogeのTensorFlow関連のモジュールを追加インストールした。 Edge TPUランタイムのインストール以下のコマンドでラズパイにEdge TPU(Tensor Processing Unit)ランタイム(スタンダード版)のインストールを行った。 尚、本来はCoral USB Acceleratorの様なEdge TPUユニットをラズパイに接続して機械学習を行うのが理想なのだろうが今のIoT監視カメラにCoral USB Acceleratorを追加すると外箱を作り直さないといけないのと、そこそこの値段がするので(1.5万円ぐらい)ラズパイ単体でTensor Flow Liteを動かすことにしている。 この為、最後の行のlibedgetpu1-stdのインストールは今回のプログラムをラズパイ単体で動かすだけであれば不要なのだが、今後Coral USB

                    RaspberryPi 3 Model B+でIoT監視カメラをつくる(その7 カメラのAI化) | そう備忘録
                  • NVIDIA、59ドルの2GBメモリ版「Jetson Nano」を発表

                      NVIDIA、59ドルの2GBメモリ版「Jetson Nano」を発表
                    • 【速報】NVIDIA「Jetson Orin Nano」を発表 従来Nanoの約80倍の高性能 超小型AIコンピュータ Orinファミリーは3機種に - ロボスタ ロボスタ - ロボット情報WEBマガジン

                      NVIDIAは「GTC 2022」において、CEOのジェンスン・フアン氏が基調講演で、ロボティクスやエッジAI向け超小型AIコンピュータ「Jetson」シリーズに新しいラインナップとして、エントリーレベルの「Jetson Orin Nano」を加えることを発表した。「Jetson Orin Nano」には8GB版と4GB版の2種類が用意される。 価格は199ドルからで出荷予定は2023年1月の予定。アーキテクチュアは現行の「Jetson Orin」と共通のため、「Jetson Orin開発者キット」を使用してシステムの開発自体はすぐにでも始めることができる。本体のサイズやピンは今秋発売予定の「Jetson Orin NX」と同じ。 「NVIDIA Jetson Orin Nano」は、従来の「Jetson Nano」と比較してパフォーマンスが約80倍と飛躍的に向上する。それでいて価格は比較

                        【速報】NVIDIA「Jetson Orin Nano」を発表 従来Nanoの約80倍の高性能 超小型AIコンピュータ Orinファミリーは3機種に - ロボスタ ロボスタ - ロボット情報WEBマガジン
                      • OpenVX API for Raspberry Pi - Raspberry Pi

                        Raspberry Pi is excited to bring the Khronos OpenVX 1.3 API to our line of single-board computers. Here’s Kiriti Nagesh Gowda, AMD‘s MTS Software Development Engineer, to tell you more. OpenVX for computer vision OpenVX™ is an open, royalty-free API standard for cross-platform acceleration of computer vision applications developed by The Khronos Group. The Khronos Group is an open industry consort

                          OpenVX API for Raspberry Pi - Raspberry Pi
                        • Raspberry PiでTensorflowの環境を構築【2020年】 - Qiita

                          Raspberry PiでTensorflowの環境構築【2020年】 情報が少なく、Version管理の難しいRaspberry Piでの環境構築を以下に記します。 Raspberry Pi OS (32-bit) LiteをSDに書き込む 僕はmobileNetV2を用いてリアルタイムの画像処理をするのにOSのサイズをできる限り軽量化する必要がありました。 自分のパソコンをsshでつなぐ。同じwifi環境下でのみ Wifiの管理ファイルにご自身のWifi設定を書き加え、sshで接続します。 下記のコマンドでOS関係を最新の状態にします。 sudo apt update sudo apt upgrade -y sudo reboot この記事を参考にスワップ領域を拡張します。 少しでもメモリ容量を持たせるために拡張します。 テキストファイル開くときおすすめはnanoです。Nanoは使い方

                            Raspberry PiでTensorflowの環境を構築【2020年】 - Qiita
                          • エッジAI用デバイスの種類と仕様、処理速度を比較してみた | | AI tech studio

                            AI Labの尾崎です。 主に人間とロボットとのインタラクションに関する技術開発を担当しております。 さて、ロボットといえば、コミュニケーションロボットや自動運転車など、自律的に動いてもらって人の労働を助けるものが多いと思います。人の労働を助けるほど、ロボットに人並みに自律的で賢く動いてもらうためには、たとえば、ロボットに視覚を与える必要が出てきます。このときに役立つのがロボットビジョンを始めとした人工知能 (AI) です。特にロボットのAIのようなインターネットの末端 (エッジ) にいるAIをエッジAIと呼びます[1,22]。 最近では深層学習と呼ばれる技術が生まれ、このエッジAIの分野も革新的に進歩しました。深層学習のおかげでロボットは、目の前の歩行者を画像から認識したり、部屋のものを認識できるようになったりしました。しかし、この深層学習で作られたモデルを使うには莫大な量の計算をしなけ

                              エッジAI用デバイスの種類と仕様、処理速度を比較してみた | | AI tech studio
                            • Raspberry Piで画像認識AIを作る——機械学習開発キット「Microsoft Machine Learning Kit for Lobe」|fabcross

                              Raspberry Pi財団は2021年6月30日、Raspberry Pi活用事例として、機械学習開発キット「Microsoft Machine Learning Kit for Lobe」を紹介している。 Microsoft Machine Learning Kit for Lobeは、誰でも簡単に画像分類できる機械学習キットとして、Adafruit IndustriesとMicrosoftによって開発された。「Raspberry Pi 4」と「Raspberry Piカメラ」、Adafruit Industriesの拡張ボード「BrainCraft HAT」、Microsoftの機械学習アプリ「Lobe」を組み合わせている。 BrainCraft HATは、解像度240×240の1.54インチカラーディスプレイやマイク、LED、入出力ポートなどを搭載し、小型の冷却ファンも付属する。部

                                Raspberry Piで画像認識AIを作る——機械学習開発キット「Microsoft Machine Learning Kit for Lobe」|fabcross
                              • TechCrunch

                                The savvy marketers at Boston Dynamics produced two major robotics news cycles last week. The larger of the two was, naturally, the electric Atlas announcement. As I write this, the sub-40 second vide

                                  TechCrunch
                                • 手軽に設置できるAIカメラに新機種、処理性能3倍でPythonやAWS IoTにも対応

                                  パナソニックは2020年4月2日、画像処理をエッジコンピューティングで行う「Vieurekaプラットフォーム」で使用するカメラの新機種「VRK-C301」の提供を開始したと発表した。 従来のVieurekaカメラと比較して、高性能CPUやGPUによって画像処理性能を強化し、より高度な分析を行えるようにした。また、Pythonへの対応や、AWS IoT GreengrassとAmazon SageMaker Neoの搭載などアプリケーション開発環境を充実させた。 Vieurekaプラットフォームは、エッジデバイスであるカメラと、クラウドで構成されている。クラウドにはカメラ側で処理した結果を集め、マーケティングや看護、介護、企業での入退室の管理など業種や用途に合わせたアプリケーションで分析する。カメラの分析機能はクラウドから新しい画像処理アプリケーションを配信してアップデートできる他、保守管理

                                    手軽に設置できるAIカメラに新機種、処理性能3倍でPythonやAWS IoTにも対応
                                  • Raspberry PiでPINTOさん謹製「TensorFlowLite-bin」を使ってお手軽に爆速エッジコンピューティング - Qiita

                                    Raspberry PiでPINTOさん謹製「TensorFlowLite-bin」を使ってお手軽に爆速エッジコンピューティングRaspberryPiTensorflowLitePINTO PINTOさんの「TensorflowLite-bin」を使ってみる 最速にして、最狂。ビルドジャンキーのPINTOさん。最速を目指して、日夜TensorFlowのビルドに励んで、バイナリをみんなに提供し続ける素晴らしい方です。いつも凄いなと思ってみていたものの、Qiitaの記事を読んだだけで震えてしまい、ほとんどその恩恵にあずかれていませんでした。 そんなPINTOさんの凄さを少しでも感じるために、PINTOさんが作ってくださった成果物を簡単に試してみる方法をまとめました。この凄さを広めないのは、世の中の損失と思い使命感(?)をもって記事書きました。 今回使用するのは、PINTOさん謹製のリポジトリ「

                                      Raspberry PiでPINTOさん謹製「TensorFlowLite-bin」を使ってお手軽に爆速エッジコンピューティング - Qiita
                                    • 現場主導のDXを実現。5万円から始められるAIカメラの実力

                                      製造業をはじめとするさまざまな企業のAIカメラへの期待は大きい。その一方で、導入がなかなか進まないという現実もある。ソラコムの「S+ Camera Basic」は、5万円と安価であるだけでなく、「現場へのカメラの取り付け」「通信環境」「リモートアクセス」というAIカメラ導入の3つの課題を解決できるとともに、無料で体験できる「トライアル」機能も提供している。 IoT(モノのインターネット)とAI(人工知能)の組み合わせにより、製造現場の情報をデジタル化し、人が目視で行う確認作業をデジタル化して代替することができる。中でもカメラは、人の代わりに対象を認識したり、モノの数をカウントしたり、情報を読み取ったり(OCR:光学的文字認識)、対象の状態を判断したりと、画像データを通じて、初めてのAI活用の際に導入しやすいデバイスだ。 ソラコムは、同社が通信プラットフォーム提供で培ったノウハウを生かし、セ

                                        現場主導のDXを実現。5万円から始められるAIカメラの実力
                                      • Googleがスパース推論でニューラルネットワークの高速化を達成したと報告

                                        Googleがモバイル向けの機械学習用ソフトウェアライブラリTensorFlow Liteとニューラルネットワーク推論最適化ライブラリのXNNPACKにさらなるスパース化最適を組み込むことで、推論速度を大幅に向上させたと報告しました。 Google AI Blog: Accelerating Neural Networks on Mobile and Web with Sparse Inference https://ai.googleblog.com/2021/03/accelerating-neural-networks-on-mobile.html 「スパース(Sparse)」とは「スカスカ」を意味する英単語です。ビッグデータなどの解析においては「データ全体は大規模だが、意義のあるデータはごく一部しかない」という状況がよくあります。スパースモデリングは、こうした性質を持つデータを取捨

                                          Googleがスパース推論でニューラルネットワークの高速化を達成したと報告
                                        • 「JetsonよりエッジAIに最適」、ルネサスが最新AIアクセラレータ搭載MPUを発売

                                          「JetsonよりエッジAIに最適」、ルネサスが最新AIアクセラレータ搭載MPUを発売:人工知能ニュース(1/2 ページ) ルネサス エレクトロニクスは、新世代のAIアクセラレータ「DRP-AI3」を搭載し、消費電力1W当たりのAI処理性能で表される電力効率で従来比10倍となる10TOPS/Wを実現した「RZ-V2H」を発売する。 ルネサス エレクトロニクスは2024年2月29日、新世代のAI(人工知能)アクセラレータ「DRP-AI3」を搭載し、消費電力1W当たりのAI処理性能で表される電力効率で従来比10倍となる10TOPS/Wを実現した「RZ/V2H」を発売すると発表した。同月開催の「ISSCC(International Solid-State Circuits Conference) 2024」で発表した最大130TOPSのAI処理性能を持つAIアクセラレータを用いており、ISSC

                                            「JetsonよりエッジAIに最適」、ルネサスが最新AIアクセラレータ搭載MPUを発売
                                          • THETAプラグインでTensorFlow Liteのセグメンテーションをかける - Qiita

                                            はじめに リコーのYuuki_Sです。 弊社ではRICOH THETAという全周囲360度撮れるカメラを出しています。 RICOH THETA VやTHETA Z1は、OSにAndroidを採用しており、Androidアプリを作る感覚でTHETAをカスタマイズすることもでき、そのカスタマイズ機能を「プラグイン」と呼んでいます。(詳細は本記事の末尾を参照)。 上述の通りTHETAは、カメラでありながらAndroid端末でもあるため、単体で撮影し機械学習の処理をかけて出力することが可能です。 以前、@KA-2さんがTHETAプラグインで連続フレームにTensorFlow Liteの物体認識をかける記事を掲載しましたが、今回はセマンティックセグメンテーションを実施する方法を記載しようと思います。 本記事を参考にすることで、セグメンテーション結果をライブプレビューに反映したり、 下図の様に人物と背

                                              THETAプラグインでTensorFlow Liteのセグメンテーションをかける - Qiita
                                            • マイコンで深層学習も、エッジコンピューティングの未来

                                              機械学習(ML)、さらには深層学習(DL)は、ほんの数年前までハイエンドのハードウェアでしか実行できず、エッジでのトレーニングや推論はゲートウェイ、エッジサーバ、またはデータセンターで実行されると考えられていた。当時、クラウドとエッジの間で計算リソースを分配するという動きが初期段階にあったため、このような考え方は正しいとされていた。しかし、産学の集中的な研究開発によって、このシナリオは劇的に変化した。 いまやMLを実行するのに優れたTOPS性能を実現可能なプロセッサは必要ない。最新のマイコンの中にはMLアクセラレーターを組み込んだものもあり、エッジデバイスでMLを実行できるケースが増えている。 これらのデバイスは、単にMLを実行するのではなく、低コストと低消費電力を実現し、どうしても必要な場合にのみクラウドに接続することが可能だ。つまり、MLアクセラレーター搭載のマイコンは、次のステップと

                                                マイコンで深層学習も、エッジコンピューティングの未来
                                              • Fast and Portable Llama2 Inference on the Heterogeneous Edge

                                                Fast and Portable Llama2 Inference on the Heterogeneous Edge • 12 minutes to read The Rust+Wasm stack provides a strong alternative to Python in AI inference. Compared with Python, Rust+Wasm apps could be 1/100 of the size, 100x the speed, and most importantly securely run everywhere at full hardware acceleration without any change to the binary code. Rust is the language of AGI. We created a very

                                                  Fast and Portable Llama2 Inference on the Heterogeneous Edge
                                                • Edge AI Just Got Faster

                                                  When Meta released LLaMA back in February, many of us were excited to see a high-quality Large Language Model (LLM) become available for public access. Many of us who signed up however, had difficulties getting LLaMA to run on our edge and personal computer devices. One month ago, Georgi Gerganov started the llama.cpp project to provide a solution to this, and since then his project has been one o

                                                    Edge AI Just Got Faster
                                                  • 「変身ベルト」を機械学習で作ってみた - builders.flash☆ - 変化を求めるデベロッパーを応援するウェブマガジン | AWS

                                                    ご無沙汰しております、ソリューションアーキテクト / AWS 芸人しみず (@shimy_net) です。前回の記事から 1 年、時が経つのは早いですねぇ。今回の記事は夏休みの工作ということで「変身ベルト」を作ります。ちょうど手元に M5Stack Core2 for AWS がありまして、小さなボディのなかにディスプレイ、加速度センサー、温度センサー、LED など初めから盛りだくさんの機能がビルトインされていて便利そうなので使ってみようと思います。まずは出来上がった「変身ベルト」を見てください。

                                                      「変身ベルト」を機械学習で作ってみた - builders.flash☆ - 変化を求めるデベロッパーを応援するウェブマガジン | AWS
                                                    • 15cm角のキューブサイズ、シンプルな見た目の小型エッジAIコンピュータ

                                                      AI insideは2020年11月4日、エッジAIコンピュータ「AI inside Cube」シリーズから本体サイズを小型化した「AI inside Cube mini」を発売した。従来機と比べて8分の1程度の体積まで小さくして、オフィスなど設置スペースが限られる場所にも導入しやすいサイズ感を実現した。アルミ製のスタイリッシュな見た目も特徴だ。 AI insideは2020年11月4日、エッジAI(人工知能)コンピュータ「AI inside Cube」シリーズから本体サイズを小型化した「AI inside Cube mini」を発売したと発表した。従来機と比べて8分の1程度の体積まで小型化し、オフィスなど設置スペースが限られる場所にも導入しやすいサイズ感を実現している。価格は、本体代金の3万円に加えて、導入するAIソフトウェアの利用料をサブスクリプションで支払う形式になる。 AI ins

                                                        15cm角のキューブサイズ、シンプルな見た目の小型エッジAIコンピュータ
                                                      • エッジAIに対応するRISC-Vの開発が進む? 2030年までに1億2900万個を出荷 ABI Research

                                                        調査会社ABI Researchは2024年2月14日(米国時間)、RISC-VアーキテクチャがエッジAI(人工知能)ワークロードに対応し始めており、この傾向は今後10年続くとの予測を発表した。RISC-Vの出荷個数は2030年までに1億2900万個に達するとしている。 これらの予測は、ABI Researchによるレポート「RISC-V for Edge AI Applications」に基づくものだ。同レポートは、広範な一次インタビューを通じて、RISC-Vの市場動向などを分析している。 ABI Researchのインダストリーアナリストであるポール・シェル氏は「RISC-Vは、特定のワークロードに対応できる柔軟性とスケーラビリティを備えており、その魅力を高めている。RISC-V Internationalはエコシステムを熱心に推進、育成しており、Google、MediaTek、Int

                                                          エッジAIに対応するRISC-Vの開発が進む? 2030年までに1億2900万個を出荷 ABI Research
                                                        • 長年細々と続く「BeagleBone Black」、ラズパイの代替になるのか

                                                          世界的な半導体不足や20年ぶりといわれる円安などの逆風もあって、IoTには欠かせないRaspberry Pi(通称:ラズパイ)の販売価格が高騰しているのはご存じの通りだ。Amazonなどの販売サイトでは、Raspberry Piに飢えているエンジニアの足元を見るかのように、在庫ありの場合2万円近い値付けや、絶対に要らないような付属品をつけてさらに高値で販売されている。 しかし、Wi-FiやBluetoothが必要な場合は技適の問題もあり、日本で入手可能な他の製品の選択肢は非常に限られる。まったく話題に上がらないシングルボードコンピューターも視野に入れないといけない状況だ。 定価ベースではRaspberry Piの安さにまったく太刀打ちできず、かといって販売終了になるわけでもなく、長年細々と販売され続けている製品がある。それでも入手困難には変わりはないのだが、私たちにとって選択肢は多いほうが

                                                            長年細々と続く「BeagleBone Black」、ラズパイの代替になるのか
                                                          • TechCrunch

                                                            In 2017, Jyoti Bansal co-founded San Francisco-based security company Traceable alongside Sanjay Nagaraj, a former investor. With Traceable, Bansal — who previously co-launched app performance m

                                                              TechCrunch
                                                            • TensorFlow Liteを活用したエッジAI導入事例 〜 Yahoo!知恵袋アプリの不適切投稿を削減

                                                              ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは、ヤフーでエンジニアをしている玉城です。 以前、iOS版Yahoo!知恵袋アプリへエッジAIを導入した事例の紹介をしましたが、今回はAndroid版への導入事例をご紹介します。 ここでいうエッジAIとは、スマートフォンアプリにバンドルまたはダウンロードなどをした学習モデルを実行することで、サーバーサイドではなくモバイルデバイス上で推論結果を得ることを指しています。学習モデルの詳しい内容ではなく、用意した学習モデルをAndroidエンジニアがアプリに組み込むという視点で書いております。この記事を通して、導入する上で実施したこと、注意した点、工夫した点などをお伝えすることで導入を検討している方の何かのお役に立てればと思います

                                                                TensorFlow Liteを活用したエッジAI導入事例 〜 Yahoo!知恵袋アプリの不適切投稿を削減
                                                              • PyTorchモデルをモバイルやエッジで利用するための方法の整理 - ほろ酔い開発日誌

                                                                はじめに 最近では、Deep LearningのライブラリとしてPyTorchが利用される機会が多くなっています。私自身も以前はTensorflow/Kerasを利用していましたが、現状はPyTorchを使うことがほとんどです。 しかし、PyTorchは実装がしやすいものの、モバイルやエッジデバイスへのデプロイを考える上では不安な点が残ります。今回は、PyTorchを様々なプラットフォーム上で利用することを考えたときにどのような方法があるかを整理します。 モバイル 選択肢の整理 現在、モバイル (iOS/Android)へのデプロイを考えるときにメジャーな選択肢が3つあります。 Core ML (Apple) PyTorchをonnxに変換し、onnxをcoreMLに変換する Tensorflow Lite (Google) PyTorchをonnxに変換し、Tensorflow/Kera

                                                                  PyTorchモデルをモバイルやエッジで利用するための方法の整理 - ほろ酔い開発日誌
                                                                • NVIDIAも「ユニーク」と評価、Jetson Nano内蔵のインテリア風デザインAIカメラ

                                                                  2020年8月、AIソフトウェア/ソリューション開発を手掛けるスタートアップのエクサウィザーズが高性能2眼レンズ搭載のAIカメラ「ミルキューブ」を発売した。特徴の1つはそのデザイン性にある。現在市場に多く出回るAIカメラの多くは、一目見れば「カメラ」だと周囲に伝わりやすいフォルムとなっている。これに対してカラーリングを施した立方体形状のミルキューブは、カメラというより、まるで小型スピーカーなど家電製品のようなデザインに仕上がっている。 だが、“インテリア感”を前面に押し出した見た目を裏切るかのように、処理性能は高い。GPUとしてNVIDIAの組み込みAIコンピュータ「Jetson Nano」を筐体に内蔵しており、工場現場の不良品検知や物流支援などの用途にも十分適用できる。AIカメラを開発するためにJetson Nanoを活用する事例は多数あるが、Jetson Nanoそのものを最終製品に組

                                                                    NVIDIAも「ユニーク」と評価、Jetson Nano内蔵のインテリア風デザインAIカメラ
                                                                  • 最小のAIハード「エッジデバイス」の選び方 SBC、FPGA、産業用組み込みPCを解説

                                                                    最小のAIハード「エッジデバイス」の選び方 SBC、FPGA、産業用組み込みPCを解説(1/2 ページ) 2012年、カナダ・トロント大学のジェフリー・ヒントン教授らが、画像認識コンペでディープラーニングの威力を示したことで、第3次AIブームが巻き起こった。AIはその後も予想を超える速度で進化し、今では「Midjourney」や「ChatGPT」といった生成系AIが、さまざまなシーンで活用されるようになっている。 こうしたAIの急速な発展を支えているのが、AI演算を効率良く実行できるAIハードだ。一口にAIハードといっても、スパコンからエッジまでさまざまな製品があり、用途によって最適な製品が異なる。そこでこの特集では3回に分けて、用途別にAIハードの選び方を解説したい。 エッジデバイスの「エッジ」ってどういう意味? 第1回は、AIハードの中でも1番小さなハードであるエッジデバイスを取り上げ

                                                                      最小のAIハード「エッジデバイス」の選び方 SBC、FPGA、産業用組み込みPCを解説
                                                                    • 「控えめに言って性能はラズパイの100倍」IdeinとアイシンがAIカメラを開発

                                                                      エッジAIスタートアップのIdeinは、新製品となるAIカメラ「AI Cast」を発表した。ハードウェアの開発と製造はアイシンが担当し、2.5Wの低消費電力ながら26TOPSのAI処理性能を持つAIチップを搭載している。 エッジAI(人工知能)スタートアップのIdeinは2023年2月7日、オンラインで会見を開き、新製品となるAIカメラ「AI Cast(アイキャスト)」を発表した。国内市場で約1万5000台の出荷実績を持つIdeinのエッジAIプラットフォーム「Actcast」によってAIモデルを含めたソフトウェアの運用を容易に行える。加えて、ハードウェアの開発と製造は大手自動車部品メーカーのアイシンが担当することで高い品質を確保している。搭載するAIチップは、イスラエルのHailoが開発した「Hailo-8」で、2.5Wの低消費電力ながら26TOPS(1秒当たり26兆回の四則演算が可能)

                                                                        「控えめに言って性能はラズパイの100倍」IdeinとアイシンがAIカメラを開発
                                                                      • エッジAIの可能性を広げる「MST」、なぜCortex-M0+マイコンでも動くのか

                                                                        エッジAIの可能性を広げる「MST」、なぜCortex-M0+マイコンでも動くのか:組み込み開発 インタビュー(1/2 ページ) エッジAIスタートアップのエイシングは、マイコンを使って、AIによる推論実行だけでなく学習も行えるアルゴリズム「MST」を開発した。ローエンドの「Cortex-M0+」を搭載するマイコンでも動作するMSTだが、より多くのメモリ容量が求められるランダムフォレストと同等の精度が得られるという。開発の背景を同社 社長の出澤純一氏に聞いた。 ディープラーニング(深層学習)の進化をきっかけに2015年ごろから盛り上がりを見せている第3次AI(人工知能)ブームだが、もはやAIはブームというよりは基盤技術として定着を見せつつある。製造業でも進展しているDX(デジタルトランスフォーメーション)における代表的な技術となっているのもAIやIoT(モノのインターネット)になるだろう。

                                                                          エッジAIの可能性を広げる「MST」、なぜCortex-M0+マイコンでも動くのか
                                                                        • [Amazon SageMaker] 最新のJetPack4.5でDLR (Deep Learning Runtime) 1.8.0を利用するための環境構築 | DevelopersIO

                                                                          1 はじめに CX事業本部の平内(SIN)です。 エッジで機械学習の推論を行う場合、SageMaker Neo(モデル最適化)とJetson Nanoという組み合わせは、非常にコスパが高いと感じています。 今回は、2021/02/20 現在で最新のJetPack 4.5と、DLR(Deep Learning Runtime) 1.8.0の環境をセットアップする手順を纏めました。 2 JetPack 4.5 最新のJetPackは、下記でSDカードイメージ(jetson-nano-jp45-sd-card-image.zip 6GByte)としてダウンロードできます。 JetPack SDK セットアップ後に、jtopで確認すると、JetPackのバージョンが確認可能です。 必須では有りませんが、DLRを使用してモデルを動作させる場合、少し大きなものだと、メモリ不足で止まってしまう事があるの

                                                                            [Amazon SageMaker] 最新のJetPack4.5でDLR (Deep Learning Runtime) 1.8.0を利用するための環境構築 | DevelopersIO
                                                                          • [Amazon SageMaker] JumpStartのファインチューニングで作成したResNet18のモデルをSageMaker Neoで最適化して、Jetson NanoのWebカメラで使用してみました | DevelopersIO

                                                                            [Amazon SageMaker] JumpStartのファインチューニングで作成したResNet18のモデルをSageMaker Neoで最適化して、Jetson NanoのWebカメラで使用してみました 1 はじめに CX事業本部の平内(SIN)です。 Amazon SageMaker JumpStart(以下、JumpStart)は、TensorFlow Hub や PyTorch Hub に公開されているモデルをGUIで簡単にデプロイして利用できます。 以下は、PyTorch HubのResNet50でファイチューニングしてみた例です。 今回は、上記と同じ要領でResNet18から学習したモデルをSageMaker Neo(以下、Neo)でJetson Nano用に最適化して使用してみました。 前回、同じモデルをPyTorch上で使用した際の処理時間が、0.04sec 〜

                                                                              [Amazon SageMaker] JumpStartのファインチューニングで作成したResNet18のモデルをSageMaker Neoで最適化して、Jetson NanoのWebカメラで使用してみました | DevelopersIO
                                                                            • AI開発のハードルは低い、コロナ禍に対応する混雑検知システムの開発に学べ

                                                                              AI開発のハードルは低い、コロナ禍に対応する混雑検知システムの開発に学べ:AIアプリケーション開発 注目を集めるAIだが、その開発は容易ではないイメージが強い。しかし、実際にはオープンソースソフトウェアやさまざまなツールを活用することにより、複雑なプログラミングなどを行わなくてもAIアプリケーションを開発できる環境は既に整っている。技術商社のマクニカが開発した「コロナ対策混雑検知システム」はそのことを端的に示す事例になっている。 製造業が活用を推し進めているデジタル技術の中でも最も注目を集めているのがAI(人工知能)だろう。特に、画像データを活用するAIについては、GPUをはじめとするパワフルなデバイスの登場によって急速に技術が進歩したこともあり、新たな可能性として期待されている。ただし、これら新しい技術の取り込みは容易ではないイメージが強く、そういった心理的障壁が導入に向けたハードルにな

                                                                                AI開発のハードルは低い、コロナ禍に対応する混雑検知システムの開発に学べ
                                                                              • 1000円以下のマイコンだけで物体形状の学習と推論を行う - Qiita

                                                                                はじめに まずは下記の動画をどうぞ 1000円以下のマイコンだけで物体形状の学習、推論が動いた。 緑色のは8×8ピクセルのToFセンサVL53L7CX、マイコンはSeeed XIAO RP2040、学習アルゴリズムはSEFR(multi-class)、学習時間は約12ms。 前半で、無、👊、✌️、✋を学習して、後半は推論。推論時間は1ms以下ですが、ToFセンサ読み出しに時間がかかっています。 1000円以下のマイコンだけで物体形状の学習、推論が動いた。 緑色のは8×8ピクセルのToFセンサVL53L7CX、マイコンはSeeed XIAO RP2040、学習アルゴリズムはSEFR(multi-class)、学習時間は約12ms。… pic.twitter.com/ccJQ7fDE0A — ミクミンP/Kazuhiro Sasao (@ksasao) December 19, 2023 2

                                                                                  1000円以下のマイコンだけで物体形状の学習と推論を行う - Qiita
                                                                                • リアルタイムに学習できるエッジAIが進化、メモリがKBレベルのマイコンにも対応

                                                                                  エイシングは新たなエッジAIアルゴリズム「MST」を開発した。これまでに発表した「DBT」や「SARF」などと比べて使用するメモリを大幅に削減できるため、フラッシュメモリやSRAMの容量がKBレベルの小型マイコンにも実装できる。 エイシングは2020年12月15日、新たなエッジAI(人工知能)アルゴリズム「MST(Memory Saving Tree)」を開発したと発表した。エイシングがこれまでに発表した「DBT(Deep Binary Tree)」や「SARF(Self Adaptive Random Forest)」などのエッジAIアルゴリズムと比べて使用するメモリを大幅に削減できるため、フラッシュメモリやSRAMの容量がKBレベルの小型マイコンにも実装でき、エッジAIの処理速度や精度も従来アルゴリズムと同等とする。MSTは2021年1月から提供を開始する予定だ。 同社は、AI技術とし

                                                                                    リアルタイムに学習できるエッジAIが進化、メモリがKBレベルのマイコンにも対応

                                                                                  新着記事