並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 587件

新着順 人気順

機械学習系読物の検索結果281 - 320 件 / 587件

  • freeeのAIチームが作り上げた、チームの力を最大限に生かすための機械学習基盤とは

    freeeのAIチームが作り上げた、チームの力を最大限に生かすための機械学習基盤とは:特集:2020年、AI活用の成否を分かつ技術とは(3)(1/2 ページ) 「最新の進化を取り入れ、freeeという企業の今のステージに適した機械学習基盤を目指した」。freeeのAIラボで機械学習基盤の構築を主導している田中浩之氏はこう話す。では、freeeの今に適した機械学習基盤とは、どのようなものなのか。 freeeで機械学習/AIによる推論サービスを担当しているAIラボでは、チームで利用する機械学習インフラ基盤を構築し、2019年後半に運用を開始した。基盤構築の中心となっている田中浩之氏は、自身が以前、自然言語処理の研究を始めたころを振り返り、機械学習を支援する技術が驚くべき進歩を遂げたと話す。 「当時はC言語で一からアルゴリズムを書いていた。今はそのようなことがなくなり、1日あるいは半日でプロトタ

      freeeのAIチームが作り上げた、チームの力を最大限に生かすための機械学習基盤とは
    • LightGBMを使って競馬予想で回収率100%を超えるコードを書いた(その1) - Qiita

      競馬歴10年・データサイエンティストとして働いて5年になって、そろそろ流行りの機械学習で競馬予想にも手を出すか、と思いQiitaの記事を参考にしつつ作ってみました。すると予想を遥かに上回り、回収率100%を超えるモデルができたので、勢いでこの記事を書くことにしました。また作成したコードは後ほど公開するつもりです。 自己紹介 とあるメーカー系企業でデータサイエンティストとして働いています。 もともと大学院では物理学専攻で昔からFortranやC++、Pythonで科学計算(微分方程式を解いたり行列の固有値を出したり)をしていましたが、社会人になってからはガラッと転向しデータ分析を専門にしています。R&D系の部署に所属しており、割とアカデミックな部分からビジネスまで携わっていたのですが、最近は専ら分析組織作りやらマネジメント系のPJTが多くなってきてしまったので、元々やっていたkaggleに再

        LightGBMを使って競馬予想で回収率100%を超えるコードを書いた(その1) - Qiita
      • 【翻訳】機械学習の技術的負債の重箱の隅をつつく (後編) - 株式会社ホクソエムのブログ

        ホクソエムサポーターの白井です。 今回は前回 【翻訳】機械学習の技術的負債の重箱の隅をつつく (前編) の続きを紹介します。 blog.hoxo-m.com ※この記事は、Matthew McAteer氏によるブログ記事Nitpicking Machine Learning Technical Debtの和訳です。原著者の許可取得済みです。 後編では、コードのアンチパターンなど、エンジニアには身近な話題で、前編と比較して実践しやすいコンテンツも多いと思います。 Nitpicking Machine Learning Technical Debt (機械学習の技術的負債の重箱の隅をつつく) Part5 MLコードにある共通のダメなパターン Part6 構成の負債 (退屈だけど修正は簡単) Part7 解決への夢を打ち砕く実世界 Part8 奇妙なメタセクション サニティーチェック (Sani

          【翻訳】機械学習の技術的負債の重箱の隅をつつく (後編) - 株式会社ホクソエムのブログ
        • カメラ画像から虹彩検出をしてみた - Qiita

          はじめに 2020/1/19(土)に開催された第56回 コンピュータビジョン勉強会@関東の発表内容をまとめました。 当日の資料はこちらから見れます。 ソースコードは以下のGithub上に公開しています。 https://github.com/33taro/gaze_cv 虹彩検出の手順について 虹彩検出は大学の頃、研究していたテーマなので、進化したOpenCVならお手軽にできなかなぁと思い実施しています。 手順としては次の通りです。 1.カメラ画像から人物の顔と顔のランドマーク検出 2.顔のランドマークから目領域を切り出し 3.目領域を2値化して虹彩領域を抽出 4.抽出した虹彩領域から虹彩検出 カメラ画像から人物の顔と顔のランドマーク検出 以前、別の記事で紹介した顔のランドマーク検出を利用して、虹彩(黒目の部分)を検出してみました。 詳細はそちらを参照してください。 顔のランドマークから目

            カメラ画像から虹彩検出をしてみた - Qiita
          • 【機械学習】決定木をscikit-learnと数学の両方から理解する - Qiita

            今回はわかりやすい例を出しましたが、確かに部屋を決めるとき、私たち自身も下記の様な考え方をするのではないでしょうか。 どの条件が一番上に来るかは人それぞれですが、例えば1階は少し嫌で、2階以上かをまずは考え、2階以上であれば、さらにオートロックもあればいいね、という意味で部屋を借りる。 逆に、2階以上じゃなくても(1階の部屋)、ある程度の部屋の広さならまあ借りてもいいか、逆に1階だし狭いなら借りないな・・・・というようなフローで考えていくと思います。 まさにこれが木の構造を表していて、このように条件を分岐させて判断を決めていくのが決定木です。 では、この条件の分岐はどのように決められるのでしょうか。今出した例は直感的な説明で、根拠も何もなかったと思います。 ここで出てくるのが「不純度」です。 詳細は後半の数学の章に回しますが、この不純度を元に決定木は条件の分岐を決めています。 要は、元のデ

              【機械学習】決定木をscikit-learnと数学の両方から理解する - Qiita
            • Raspberry PiでPINTOさん謹製「TensorFlowLite-bin」を使ってお手軽に爆速エッジコンピューティング - Qiita

              Raspberry PiでPINTOさん謹製「TensorFlowLite-bin」を使ってお手軽に爆速エッジコンピューティングRaspberryPiTensorflowLitePINTO PINTOさんの「TensorflowLite-bin」を使ってみる 最速にして、最狂。ビルドジャンキーのPINTOさん。最速を目指して、日夜TensorFlowのビルドに励んで、バイナリをみんなに提供し続ける素晴らしい方です。いつも凄いなと思ってみていたものの、Qiitaの記事を読んだだけで震えてしまい、ほとんどその恩恵にあずかれていませんでした。 そんなPINTOさんの凄さを少しでも感じるために、PINTOさんが作ってくださった成果物を簡単に試してみる方法をまとめました。この凄さを広めないのは、世の中の損失と思い使命感(?)をもって記事書きました。 今回使用するのは、PINTOさん謹製のリポジトリ「

                Raspberry PiでPINTOさん謹製「TensorFlowLite-bin」を使ってお手軽に爆速エッジコンピューティング - Qiita
              • Unity ML-Agents 0.11.0のチュートリアル|npaka

                1. Unity ML-Agents「Unity ML-Agents」は、Unity で「強化学習」の「環境」を構築し、「エージェント」の学習および推論を行うためのフレームワークです。 最新版「0.11.0」では、「BroadcastHub」「Brain」が廃止され、よりシンプル&スマートになりました。サンプルの学習環境「3DBall」を使って、学習および推論の手順を解説します。 ・Unity ML-Agents 2. 開発環境の準備◎ Unityの開発環境のインストール 「Unity ML-Agents」を利用するには、「Unity 2017.4」以降が必要になります。今回は「2019.2.2f1」を使っています。 以下のサイトからダウンロード後、インストールしてください。 ・Unityのダウンロード ◎ Unity ML-Agentsのリポジトリのダウンロード 「Unity ML-Ag

                  Unity ML-Agents 0.11.0のチュートリアル|npaka
                • AI女子、無料GPUでYOLO v3はじめました。 - Qiita

                  はじめに AIスタートアップでWEBアプリ開発をやりながら、pythonとAIを勉強中です。 画像認識でやりたいことがあり、まずは開発環境の構築とアルゴリズムを使ってみるところまでを実践しました。 今回やりたいこと YOLOv3を使う 無料でGPUを使う YOLOとは 物体検出アルゴリズムのうちの1つです。(物体検出は他にFaster R-CNNやSSDなどのアルゴリズムがあります。) YOLOの特徴は、速くて高精度なことで、現在v3が最新バージョンです。 今回ニューラルネットフレームワークはDarknetを使ます。(フレームワークは他に、TensorflowやChainer、Caffeなどがあります。) ちなみに、YOLOはYou only look onceの略で、You only live once(人生一度きり)をもじっているそうです。 YOLOで物体検出する Darknetのイン

                    AI女子、無料GPUでYOLO v3はじめました。 - Qiita
                  • 形態素解析の精度向上を頑張った話 - Leverages データ戦略ブログ

                    はじめに こんにちは。データ戦略室データエンジニアリンググループの森下です。 普段はデータエンジニアとして、主にデータ活用基盤の保守運用や機能追加、ツール開発やデータ抽出・可視化といった業務を行っています。もともと機械学習への興味はありましたが、本記事の内容以前では、業務で使用したことはありませんでした。今回、初めて機械学習の業務を経験する事ができ、非常に多くのことを学ぶことができました。本記事は未経験者の奮闘記となりますので、これから機械学習を学ぶ方・業務に活かす方にとって参考になれば幸いです。 経緯について データエンジニアとしてデータ活用基盤の構築や保守運用をしていく中で、機械学習へのデータ活用は自然と考える部分です。しかし、書籍やチームの勉強会で機械学習について少しずつ学んではいるものの、業務で機械学習を使用したことはありませんでした。 そのような状況の中で、機械学習の業務に携わり

                      形態素解析の精度向上を頑張った話 - Leverages データ戦略ブログ
                    • Saliency Mapを使って画像を良い感じに切り抜くAIを作った - Qiita

                      はじめに この記事では、深層学習を用いたSaliency Mapを使って画像をクロッピングする手法を論文を読みつつPython・PyTorchで実装していきます。 深層学習で画像というと、手書き数字を分類したり、人を検出したりしてみることが多いですが、こんなこともできるんだということを見ていっていただければと思います。 なお、この記事はDeNA 20 新卒 Advent Calendar 2019 - Qiitaに参加しています。作ってみる機会をくれたアドベントカレンダーに感謝! 読者の想定 ジャンルが様々なアドベントカレンダーですから、記事を読むだけならばプログラムを触ったことがある全ての方を想定しています。動かしてみる上では深層学習のチュートリアル的なことはやったことがある方向けの想定です。 試しやすいようにJupyter Notebook想定のコードを載せているため手元で動かすことも

                        Saliency Mapを使って画像を良い感じに切り抜くAIを作った - Qiita
                      • JetRacerが面白い|akira

                        JetRacerは、タミヤのTT02という車体にも対応しており、国内で入手可能なパーツで開発する事が可能です。 下記が、JetRacerのデモ走行です。 JetRacerの面白さは、自動走行するために必要なデータセットの数の少なさにあります。上記走行に必要なデータセット数は200セットぐらいです。DonkeyCarが5000〜2万セットぐらい必要とするのに対し、その1/25〜1/100程度のデータセット規模で自動走行可能となります。 追加更新) 上記は、2021年11月23日に開催されたAIでRCカーを走らせよう!走行会での走行動画。こちらは100セットのデータセットを転移学習させて自動走行を実現。 JetRacerが少ないデータセットで自動走行できるのは、転移学習を使っているためです。ResNetの学習済みモデルに、フロントカメラの画像と、行きたい方向(X,Y)をデータセットにし、転移学

                          JetRacerが面白い|akira
                        • どこでも動く!!つよつよロボットの為のITインフラ構築(産業用ラズパイ「RevPi」を使って。) - Qiita

                          はじめに 21世紀、、、私が子供の頃は、21世紀の「ちまた」にはロボットが溢れているに違いない!!と確信しておりました。が!20年経ってもそうなっていない現実に少し寂しさを感じております。(Pepperくん、ルンバ君など一部芽は出つつありますが。) この記事を書いた背景 ここから真面目な話。 ROS(Robot Operating System)を採用したロボットは、ROS2の登場もあって徐々に現場導入に耐えうるモノへと成長していくことが予想されています。 IT infrastructure for ROS robots and IoT devices. These is very smart like your ROS robot.な 「ROSロボット/IoT 向けプラットフォームであるRDBOX」では、ロボット開発者の面倒を取り除くためのネットワーク/コンピューティング環境構築のための

                            どこでも動く!!つよつよロボットの為のITインフラ構築(産業用ラズパイ「RevPi」を使って。) - Qiita
                          • 深層学習入門 ~順伝播編~ - Qiita

                            対象者 深層学習シリーズの記事です。 前回の記事はこちらです。 ここでは順伝播について、まずはスカラでの理論を説明して、それから行列に拡張します。 前回記事で紹介したコードに追加していったり修正していく形となるので、まずは前回記事からコードを取ってきておいてくださいね〜 次回の記事はこちら 目次 スカラでの順伝播 スカラでの順伝播理論 スカラでの順伝播実装 行列での順伝播 行列での順伝播理論 行列での順伝播実装 __init__メソッドの実装 行列演算について 行列和 行列の要素積 行列積 転置 スカラでの順伝播 ここでは、スカラ(実数)での順伝播の理論と実装を説明します。といっても、だいたい基礎編で既に述べている通りです。 スカラでの順伝播理論 まずは理論ですね。 このニューロンモデルから見ていきます。 これを定式化すると$f(x) = \sigma(wx + b)$となることはここで述

                              深層学習入門 ~順伝播編~ - Qiita
                            • 【Python】keras-yolo3を使用して物体検出

                              Keras(TensorFlowバックエンド)で物体検出をしてみます。 物体検出にはkeras-yolo3を使用します。 https://github.com/qqwweee/keras-yolo3 構築環境 Windows10 Home 64bit Anaconda 4.4.0 Python3.6.7 tensorflow-gpu1.12 Keras2.2.4 keras-yolo3の導入 KerasとTensorFlowが使用できる環境を事前に構築しておく必要があります。 仮想環境にKerasとTensorFlowをインストールする手順は下記を参照してください。 https://kazusa-pg.com/install-tensorflow-gpu-keras/ git cloneコマンドを使用するか、keras-yolo3のgithubのページからzipファイルをダウンロードします

                                【Python】keras-yolo3を使用して物体検出
                              • 機械学習の代表的アルゴリズム「SVM」「k平均法」「アプリオリ法」とは?

                                関連キーワード データ分析 | 機械学習 | アルゴリズム 前編「機械学習の代表的アルゴリズム『線形回帰』『決定木』とは?」は、主要な機械学習アルゴリズム5種類のうち「線形回帰」「決定木」について説明した。後編は残る3種類の機械学習アルゴリズムを紹介する。 併せて読みたいお薦め記事 前編を見る 機械学習の代表的アルゴリズム「線形回帰」「決定木」とは? AIで何ができるのか AIの本当のすごさ、3つのユースケースから学んだこと AIフィーバーはまだ冷めない 次はどの分野でAIが活躍するか? 結局、人工知能(AI)技術は何を可能にするのか? AIのビジネス活用 GoogleのAIが指南する最先端デジタルマーケティング 「キスの仕方」動画も ゲーム業界のデジタルマーケティングに「AI」はどう活用されているか 「Alexa、油汚れの落とし方を教えて」を実現 P&Gも挑む“顧客とつながるAI” アル

                                  機械学習の代表的アルゴリズム「SVM」「k平均法」「アプリオリ法」とは?
                                • カメラとRaspberry Pi(Jetson)と機械学習を利用したスマート介護カメラ アイディア 要件定義 - Qiita

                                  カメラとRaspberry Piと機械学習の組み合わせで、思いついたアイディア スマート介護カメラ使用例 準備 介護者、関係者、ヘルパーの顔を登録しておく トイレ 風呂場 玄関 食器に定義用バーコードを貼る 玄関にスピーカーとマイクを設置しておく 体調管理 データに記憶する 具合悪そう 顔の表情で判断 機械学習とラズベリーが判断 メールする 寝ている時間をカメラ画像と機械学習で判断する 記憶する 便を機械学習で判断。便が正常化判断する 記憶する 食べ物を残した カメラ画像から判断 食器をバーコードを張って識別 食事をちゃんと食べたか記憶 食器が空かどうかで判断する 食べ物以外を口に運んでしまった カメラ画像から画像で判断 緊急メールする サーモセンサーで火元を管理する 緊急メールする 行動 人がいるかどうかを人感センサで検知 いたらカメラ画像で解析開始 転倒したかどうか判断 カメラ画像から

                                    カメラとRaspberry Pi(Jetson)と機械学習を利用したスマート介護カメラ アイディア 要件定義 - Qiita
                                  • 学習済みの一般物体検出(YOLOv3)をPC上で動かしてみた - ハードウェア技術者のスキルアップ日誌

                                    前回のYOLOv2に引き続き、今回はYOLOv3を動かすことにチャレンジしましたので、実施内容を記録しておきます。 masaeng.hatenablog.com フレームワークはKerasを用います。 動作環境 OS:Windows 10 Home (64bit) Python 3.5 Anaconda 4.2.0 Keras 2.2.4 手順 ①GITHUBに上がっているこちらの学習済みモデルをダウンロードし、任意の場所に解凍します。 https://github.com/mashyko/keras-yolo3 <学習済みモデル> 入力画像サイズ:416x416 学習データセット:COCO classes 検出クラス:80クラス "person", "bicycle", "car", "motorbike", "aeroplane", "bus", "train", "truck", "

                                      学習済みの一般物体検出(YOLOv3)をPC上で動かしてみた - ハードウェア技術者のスキルアップ日誌
                                    • 機械学習で画像認識モデルを自作してAndroidアプリを実装する最短経路について - Qiita

                                      この記事の目的 画像認識モデルを簡単に作って,簡単にアプリとして動かす方法を共有する 実行環境 google colaboratory(ランタイム:GPU)(tensorflow 2.0)(Google Chrome) win 10 Android Studio(3.5.2) android 9.0(Huawei mate 10 pro) この記事で書くこと 画像認識モデルのためのデータセット作成方法 画像認識モデルの作成方法 作成した画像認識モデルをAndroid Studioで読み込み動かす方法 筆者の失敗(?)談 画像認識モデルのためのデータセット作成方法 以下のステップを踏む 1. 認識したいクラスを複数作る.(ここではクラスA,B,Cとする) 2. クラスA,B,Cの画像を集める 3. クラスA,B,Cの画像をトレーニング用,テスト用に分ける クラスA,B,Cの画像を集める すで

                                        機械学習で画像認識モデルを自作してAndroidアプリを実装する最短経路について - Qiita
                                      • 強化学習で目指すF-ZERO王者(前編) - Qiita

                                        できたもの(途中経過) F-ZEROのコースをsegmentationする深層学習モデルをJetson Nano上で動かしています.480x288,30FPSで処理できています. Realtime "F-ZERO" course segmentation model is running on Jetson Nano. It is part of "gaming AI making challenge" as my personal work.#jetson #nvidia pic.twitter.com/AYCqE75JbG — nobu_e753 (@nobu_e753) September 27, 2019 キャプチャしたものはこちら(キャプチャの過程で負荷がかかり,レートが落ちています) Realtime "F-ZERO" course segmentation model is

                                          強化学習で目指すF-ZERO王者(前編) - Qiita
                                        • ユニークなおもちゃ評価データを相関分析してみた - TORANA TECH

                                          こんにちは、トラーナのしだのり(@sdx_)です。 今日はデータ分析に関して書いていこうと思います~ ワイワイ! TL;DR おもちゃの評価データとは? おもちゃの評価データのユニークさとは なぜ分析するのか なぜ相関分析なのか なぜPythonを使ってみたか 求めるアウトプット プロセス データクレンジング なんと数行のコードでできる おわりに TL;DR 大量のデータを見て「確からしいデータ」を出していくための過程はものすごくチャレンジングで楽しいです。人間が頭で処理できるパターン数には限度があり、それがバイアスになって物事の判断を誤ったり、認知パターン数の違いが視座の違いになり答えの無い議論になってしまったりすることがあると思いますが、データ分析でそういった議論の共通土台を作っていきたいと思います。 Alteryxのライセンスを買うか、PythonとExcelで職人ワザで頑張るのか悩

                                            ユニークなおもちゃ評価データを相関分析してみた - TORANA TECH
                                          • 「無人AI店舗」はどんな店なら採算が取れるのか 高輪ゲートウェイの「TOUCH TO GO」と海外事情から見る“無人店舗ビジネス”の今後

                                            3月中旬に東日本旅客鉄道(JR東日本)が正式運用を開始したJR山手線の新駅「高輪ゲートウェイ」で、無人AI決済店舗をうたう「TOUCH TO GO」が3月23日にサービスを始めた。同店を運営するTOUCH TO GO(タッチ・トゥ・ゴー)社はJR東日本スタートアップとサインポストのジョイントベンチャーで、2018年10月に行われた赤羽駅での実証実験を経て事業化した。高輪ゲートウェイ駅店はその第1号となる。 まだまだ実証実験段階の取り組み事例が多い無人店舗技術で、商用展開に達したTOUCH TO GOはかなりのスピード感をもって動いているといえる。今回は現在日本で進んでいる無人店舗の取り組みを紹介しつつ、実際のビジネスや今後の展開を少し考えてみたい。 先行する米中の無人店舗事情は 17年初頭に米国で無人AI店舗「Amazon Go」のβテスト開始が報じられて以降、シリコンバレー界隈(かいわい

                                              「無人AI店舗」はどんな店なら採算が取れるのか 高輪ゲートウェイの「TOUCH TO GO」と海外事情から見る“無人店舗ビジネス”の今後
                                            • 【AI】Deep Metric Learning - Qiita

                                              はじめに 機械学習の分野でDeep Learningがその地位を揺るがぬものにして久しくなりました。 今回はその性能と汎用性の高さから、様々な分野で応用が進んでいるDeep Metric Learningについて、簡単なまとめといくつかのデモを紹介していきたいと思います。 手書き文字認識と、手書き文字認識だけでは面白くないので異常検知もやります。 Deep Metric Learning Metric Learningとは「距離学習」と言われる手法で、入力データの特徴量空間から、データの類似度を反映した特徴量空間への変換(写像)を学習する手法です。 一言で言うと、 同じクラスに属するデータは近く 異なるクラスに属するデータは遠く なるような特徴量空間への変換を学習します。 クラス分類などにおいて、距離が近すぎて分類が困難なケースでも、同じクラスは距離が近く、違うクラスは距離が遠く」なるよう

                                                【AI】Deep Metric Learning - Qiita
                                              • DeepLearningによる自動撮影カメラ Raspberry Pi+Coral_TPU - Qiita

                                                ケース制作は3Dソフト(Fusion360)にて3Dモデル作成後、自宅の3Dプリンタにて制作。(フタも有り) クラス図 プログラム自体のコード量は少なくクラス数も少ないため、アーキテクチャー的な設計はしませんでした。 コアであるObject Detection機能とサムネイルや動画の送信は、将来手段が変わる可能性を考慮し、デザインパターンのStrategyにて設計しています。 またサムネイル、動画送信は、マルチプロセスで処理しています。 主なクラスの役割 Detector: Object Detectionによる画像判定 RaspPiCamera: カメラから画像をひたすら取得 FlameImage: カメラ画像等のデータクラス(DTO) FlameImageProcessor: 画像処理関係(録画したり、メール、サムネイル送信の指示したり) MonitorController: 上記クラ

                                                  DeepLearningによる自動撮影カメラ Raspberry Pi+Coral_TPU - Qiita
                                                • MLOps(機械学習基盤)とは? AIOpsとの違い

                                                  用語「MLOps(“Machine Learning”と“Operations”の合成語)」について説明。機械学習モデルの実装~運用のライフサイクルを円滑に進めるために築かれる、機械学習チーム/開発チームと運用チームが協調し合う管理体制(機械学習基盤)を指す。 連載目次 用語解説 MLOpsとは、「機械学習チーム(Machine Learning)/開発チーム」と「運用チーム(Operations)」がお互いに協調し合うことで、機械学習モデルの実装から運用までのライフサイクルを円滑に進めるための管理体制(機械学習基盤)を築くこと、またはその概念全体を指す。類義語にDevOpsがあるが、まさにそのDevOpsから発展して生まれた考え方である。DevOpsに詳しければ、その機械学習版だと考えるとよい。 DevOpsの考え方と同様に、機械学習チーム/開発チームは、最終的なソリューションの一機能と

                                                    MLOps(機械学習基盤)とは? AIOpsとの違い
                                                  • Jetson NanoでオリジナルYOLOを動かす - Qiita

                                                    この記事でやること この記事ではcolab上で生成したweightsを用いて、Jetsonで走らせるところまでやります。 YOLOのオリジナルモデルの作成方法については過去の記事を参考にしてください。 https://qiita.com/tayutayufk/items/4e5e35822edc5fda60ca https://qiita.com/tayutayufk/items/4dba4087e6f06fec338b Jetson Nanoの用意 前提としてJetsonにはJetCardをインストールしておいてください。 最初にOpenCVのダウンロードから行っていきます。 https://qiita.com/usk81/items/98e54e2463e9d8a11415 このサイトを参考に導入してください。 自分は/home/"ユーザーネーム"/Lib/以下にクローン&ビルドしまし

                                                      Jetson NanoでオリジナルYOLOを動かす - Qiita
                                                    • 『イラストで読む AI 入門』読書メモ 01 : AI ブームの歴史 (パーセプトロン, バックプロパゲーション, ディープラーニング) - Qiita

                                                      AI というネーミング AI は Artificial Intelligence (人工知能) の略で、 1956 年のダートマス会議で生まれた言葉。 アメリカの認知科学者の ミンスキー がダートマス大学で 『The Dartmouth Summer Research Project on Artificial Intelligence』(人工知能に関するダートマスの夏期研究会)という名前の学会を開催した。 ここで世界で初めて「人工知能」という言葉が使われた。 ↓「人工知能の父」と呼ばれる ミンスキー 氏 (写真は ウィキペディア『マービン・ミンスキー』 より) 『人工の知能』って、すごい名前を付けましたね! 人工の知能。強そう。 本に戻ります。 この命名からは、機械に言語を扱えるようにさせる自分たちの研究により、機械がいずれ人間の知能に追い付くのだという意気込みが感じられると思います。

                                                        『イラストで読む AI 入門』読書メモ 01 : AI ブームの歴史 (パーセプトロン, バックプロパゲーション, ディープラーニング) - Qiita
                                                      • Jetson Yolo USBカメラで物体を認識させる - Qiita

                                                        darknetフォルダの中にpythonで書かれた物体認識のサンプルプログラムがあり、USBカメラを接続した状態で実行するとUSBカメラの画面が立ち上がり、写ったものを物体認識が働きます。 100円ショップで買ったコップが認識されました。 学習済みのデータで実行する $ wget https://pjreddie.com/media/files/yolov3.weights $ ./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights

                                                          Jetson Yolo USBカメラで物体を認識させる - Qiita
                                                        • 東芝、教師なしで画像をグループ化できるAI開発 精度は95.4%で世界最高級か | Ledge.ai

                                                          株式会社東芝は4月28日、製造現場向けに教師なし(分類基準のラベルづけ作業なし)で高精度に画像をグループ化できる画像分類AIを開発したと発表。一般画像の公開データ(※1)を分類したところ、分類精度が従来の71.0%から95.4%に改善し、世界トップレベルの性能を達成したとうたう。 (※1)ImageNet-10:AIの性能検証で使用される代表的なデータセット。犬や猫など10種類の対象を含む一般画像を指す。 東芝は本AIを製造現場で製品の外観画像を分類することで、不良や欠陥の発生状況を早期に把握する外観検査向けに開発した。AIで外観画像を分類する手法には、事前に分類基準を人手でラベル付けする「教師あり学習」と、分類基準の設定や教示用のデータを必要としない「教師なし学習」がある。東芝によると、製造現場における外観検査では分類基準を学習するための人手作業が不要で、導入・運用コストが低い「教師なし

                                                            東芝、教師なしで画像をグループ化できるAI開発 精度は95.4%で世界最高級か | Ledge.ai
                                                          • 【StyleGAN入門】「ある男性の生涯」で遊んでみた♬ - Qiita

                                                            はっきり言ってExampleを利用するだけで、よく流れている動画(男性⇒女性とかの変換)はすぐ再現出来、やってみるとほんとに凄い。 今回は、その一番の入り口だけやってみての紹介記事です。 参考は以下のとおりです。 【参考】 ①StyleGANを使ってみた ②StyleGanで福沢諭吉を混ぜてみる ③Puzer/stylegan-encoder ④NVlabs/stylegan 現在、styleGAN2も出ているようですが、まずはStyleGANの最初の一歩をやってみて、実感を持ちたいと思います。 その結果、ほぼ1日で以下の動画が作成できたので、気になったところを記事にしておきます。 ※老人~幼児~老人に変化するものも作成しましたが、$512^2$でも10MB超えてしまいました やったこと ・環境 ・pretrained_example.pyを動かす ・潜在空間を動かす ・Gifアニメーショ

                                                              【StyleGAN入門】「ある男性の生涯」で遊んでみた♬ - Qiita
                                                            • 誰得なのか不明ですが2000円でCUDAを試してみました - Qiita

                                                              こんにちは @ixiv です。 「機械学習を勉強したい」と意欲を燃やす方々の中には「できたらGPGPUも!」と考えてる方も多いような気がします。とはいえ、自分のようなぺーぺーの初心者の方は、1本数万円するGPUで勉強をはじめよう、という事も難しく「なんとなくCUDAというものに触れてみたいなぁ」といったモチベーションに留まっているかと思います。 そこで、今回はまさかの 2020年の年末に2011年3月15日(僕の誕生日)発売のグラフィックボード『GeForce GTC550Ti』をメルカリで2000円で入手し、お手軽CUDA環境を立ち上げ、YOLO+CUDA+OpenCVでリアルタイム物体検出(Object Detection)をするまでの流れをまとめます。恐らく本手順を使うのは世界に自分ひとりな気もしますが… はじめに では早速。まずPC環境と、今回の記事を作成するために参照したWEBサ

                                                                誰得なのか不明ですが2000円でCUDAを試してみました - Qiita
                                                              • 気象データをもとに「天気図っぽい前線」を機械学習で描いてみる(5) - Qiita

                                                                気象データをもとに「天気図っぽい前線」を機械学習で描いてみる(5)機械学習編 Automatic Front Detection in Weather Data 2021.9.17 学習したニューラルネットワークを地球上の他の地域に適用して全球前線自動描画に挑戦したことを記載しました。 変更概要 「3.4ところで・・・」に解説記事へのリンクを追記 2020.11.15 カラー版天気図データが増加したことを受けて再学習を行った結果を踏まえて一部を更新しました。 投稿してから月日が経ち、この間に気象図と気象データを地道に収集していたことから再学習を行いました。 変更概要 ・教師データとして使用した天気図の期間を変更 ・「3.2 生成データ(初見データ)」の中の「どのデータが寄与しているのか?」の箇所で、結果を可視化したデータを変更してアニメを追加 ・「3.4ところで・・・」でGSMの予測結果に

                                                                  気象データをもとに「天気図っぽい前線」を機械学習で描いてみる(5) - Qiita
                                                                • 【AI&システム開発系】おすすめAdventCalendarと記事まとめ(19年12月後半編) - Qiita

                                                                  前記事「【AI&システム開発系】おすすめAdventCalendarと記事まとめ(19年12月前半編)」の続編です。 12月後半の Advent Calendarから 本記事では、 ・私が読んでいるAdventCalendar ・12月15日から31日に投稿された、個人的におすすめの記事 を紹介します。 私のなかで、一番凄いと思った記事は うちのおかんがやってた開発手法があるらしいんですよ(※オマージュです) です。 それでは以下。 機械学習入門系 カレンダー 機械学習をどう学んだか by 日経 xTECH 機械学習ツールを掘り下げる おすすめ記事 文系学生が機械学習を学んだ半年間の軌跡 機械学習の勉強をはじめるきっかけ、実施した勉強方法、そして実際に「コーヒー豆の欠点豆の検出システム構築」までの流れが丁寧に紹介されていてます。 この記事の方のような、「何かを作りたい!」というアウトプット

                                                                    【AI&システム開発系】おすすめAdventCalendarと記事まとめ(19年12月後半編) - Qiita
                                                                  • KHコーダで 「#大学生の日常も大事だ 」を分析してみた(ちょっと追記) - digitalnagasakiのブログ

                                                                    #大学生の日常も大事だ というハッシュタグがツィッターを席巻したことがありました。そこで、しばらくこのハッシュタグのついたツィートや、そのツィートをしたアカウントのツィートをツィッタAPIで収集しておりました。 7/10から7/29までに取得した173GBのツィートのデータから、当該ハッシュタグのついた88,082件ツィートを、Pythonであれこれ整形して、さらにKHコーダを使ってちょこちょこいじってみて、なるほど、こういう感じかな、と思ったのが以下の図です。 コーディング:MDS 「今後」と「辛さ」、「施設」と「費用」がそれぞれ近いということ、それから、「横の人間関係」が「勉強・研究」と比較的近いことが興味深いところです。 なお、今回の分析の仕方だと、否定表現も肯定表現も区別できていません。「辛くない」というツィートがあったとしたら「辛い」として カウントされてますので、上の図はそうい

                                                                      KHコーダで 「#大学生の日常も大事だ 」を分析してみた(ちょっと追記) - digitalnagasakiのブログ
                                                                    • Inpaintingからディープラーニング、最新のGAN事情について学べる本を書いた - Qiita

                                                                      3~4ヶ月かけてA4・195ページの薄くない薄い本を書きました。タイトルは『モザイク除去から学ぶ 最先端のディープラーニング』です。TensorFlow2.0全対応です。 Inpaintingとは 画像の一部を塗りつぶしてもっともらしく画像を復元するタスク。画像全体ではなく、白く塗りつぶした部分の生成を目標とします。 画像:https://github.com/JiahuiYu/generative_inpaintingより 関連: * GLCICで無かったことにしたいアレコレ(GANを使った画像生成を Globally and Locally Consistent Image Completion で理解してみる) * 【論文読み】Image Inpainting for Irregular Holes Using Partial Convolutions ※Inpaintingという言

                                                                        Inpaintingからディープラーニング、最新のGAN事情について学べる本を書いた - Qiita
                                                                      • 【王者DataRobot・最新ツールRealityEngines・無料のVARISTA 】AutoMLツールを比較してみた。【機械学習】 - Qiita

                                                                        【王者DataRobot・最新ツールRealityEngines・無料のVARISTA 】AutoMLツールを比較してみた。【機械学習】Python機械学習データ分析KaggleAutoML はじめに⚡️ 私が実際に触って、体感したことのある3つのAutoMLツールに関する記事です。 あくまで、UI/UX、サービス視点での比較になります。 生成されたモデルの精度の比較ではございませんのでご注意ください。 なぜ、精度の比較をしないのか?🤔 それは、現在私が利用できないツールが含まれているからです。 DataRobotやRealityEnginesに関しましては、私がアーリーアクセスで一時的に利用していたため 現在推論を行うことができませんでした。 各リンク🌍 DataRobot 👉 https://www.datarobot.com/ RealityEngines 👉 https:/

                                                                          【王者DataRobot・最新ツールRealityEngines・無料のVARISTA 】AutoMLツールを比較してみた。【機械学習】 - Qiita
                                                                        • レセプト+健診データを用いた機械学習モデルによって、高額医療費が来年必要となる患者の予測が可能に

                                                                          このたび、健康診断のデータとおよび医療機関受診データ(株式会社ミナケア提供)を用いた機械学習予測モデルを構築することで、将来医療費が高額になる集団を正確に予測することが可能かどうか検証した研究結果が、ネイチャー・グループの国際雑誌であるnpj Digital Medicine誌に掲載されました。大沢樹輝(東京大学医学部附属病院)、後藤匡啓(TXP Medical株式会社)、山本雄士(株式会社ミナケア)、津川友介(カリフォルニア大学ロサンゼルス校)による共同研究です。 令和元年度の日本の年間医療費は43.6兆円となり過去最高を更新しました。増大する医療費の抑制は喫緊の課題ですが、これは日本だけなく先進国共通の問題でもあります。医療費抑制に成功している先進国はほとんどなく、現在も多くの研究がなされています。 過去の研究では、全体の医療費のうち50%が年間医療費の上位5%の患者によって利用されて

                                                                            レセプト+健診データを用いた機械学習モデルによって、高額医療費が来年必要となる患者の予測が可能に
                                                                          • 育児×家事×IoT Raspberry Piで最強の防犯カメラを作ってみる(動画記録・配信、動体検知・Line通知、顔検知・顔認証、Alexa搭載)[5/6] - Qiita

                                                                            Help us understand the problem. What is going on with this article?

                                                                              育児×家事×IoT Raspberry Piで最強の防犯カメラを作ってみる(動画記録・配信、動体検知・Line通知、顔検知・顔認証、Alexa搭載)[5/6] - Qiita
                                                                            • セキュリティカメラ映像からAIが危険を検知 京都の東寺で「炎」と「ナイフ」の検知デモを実施 MJIと日本防犯システムが開発 - ロボスタ ロボスタ - ロボット情報WEBマガジン

                                                                              刃物を使用した路上での殺傷事件や、駅構内での暴力行為など日々の生活を脅かす犯罪が後を絶たない。 AI及びコミュニケーションロボットの開発を行う株式会社MJIは、このような現状を一刻も早く打破しようと、危険物や暴力行為、危険時の従業員の行動を検知するAI危険検知システム「&:」(アンド)を株式会社日本防犯システムと共同開発。2019年12月26日に京都の東寺にて、AI危険検知システムの有効性の確認を行うためのデモンストレーションを実施したことを発表した。 同システムは、不特定多数の人が出入りする場所・無人状態の店舗での放火、災害時における出火を一刻も早く検知し通知する。これは被害を最小限に抑えるために重要不可欠な要素だ。 なお、同社によると、システムの名称には、カメラに何かをプラスする意味での「and」。また、セキュリティレベルを高め、ユーザーを安心させる「安堵」の意味も込めている。 デモン

                                                                                セキュリティカメラ映像からAIが危険を検知 京都の東寺で「炎」と「ナイフ」の検知デモを実施 MJIと日本防犯システムが開発 - ロボスタ ロボスタ - ロボット情報WEBマガジン
                                                                              • 実写をアニメ風に変換してくれるWhite-box Cartoonizationやーる(Windows10、Python3.6) - Qiita

                                                                                実写をアニメ風に変換してくれるWhite-box Cartoonizationやーる(Windows10、Python3.6)Python画像処理OpenCVDeepLearningGAN はじめに 実写をアニメ風に変換してくれるWhite-box-Cartoonizationをやってみました システム環境 Windows10(RTX2080 Max-Q、i7-8750H、RAM16GB) Anaconda 2020.02 Python 3.6 導入 White-box Cartoonizationをクローンします。 White-box Cartoonization用の環境を作成します。 $ conda create -n wbc python=3.6 $ conda activate wbc $ cd White-box-Cartoonization-master $ pip insta

                                                                                  実写をアニメ風に変換してくれるWhite-box Cartoonizationやーる(Windows10、Python3.6) - Qiita
                                                                                • 機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine

                                                                                  著者 鶴田 博文, 坪内 佑樹 所属 さくらインターネット株式会社 さくらインターネット研究所 研究会 第8回WebSystemArchitecture研究会 1. はじめに インターネットを介して利用するシステムの大規模化に伴い,システムの構成要素数の増大や,構成要素間の関係性の複雑化が進んでいる. そのため,システムの性能に異常が発生したときに,システムの状態を示す指標であるメトリックをシステム管理者が網羅的に目視することや,メトリック間の関係性を把握することができず,システムの異常原因を特定することが難しくなっている. この問題を解決するために,深層学習などの機械学習モデルを用いて,システムの異常の原因を診断する手法が提案されている[1,2]. これらの手法は,システム管理者が異常の根本原因を絞り込むために活用することが期待できる. しかし,原因診断を行うためには,事前に機械学習モデ

                                                                                    機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine