並び順

ブックマーク数

期間指定

  • から
  • まで

321 - 360 件 / 597件

新着順 人気順

機械学習系読物の検索結果321 - 360 件 / 597件

  • 育児×家事×IoT Raspberry Piで最強の防犯カメラを作ってみる(動画記録・配信、動体検知・Line通知、顔検知・顔認証、Alexa搭載)[5/6] - Qiita

    Help us understand the problem. What is going on with this article?

      育児×家事×IoT Raspberry Piで最強の防犯カメラを作ってみる(動画記録・配信、動体検知・Line通知、顔検知・顔認証、Alexa搭載)[5/6] - Qiita
    • セキュリティカメラ映像からAIが危険を検知 京都の東寺で「炎」と「ナイフ」の検知デモを実施 MJIと日本防犯システムが開発 - ロボスタ ロボスタ - ロボット情報WEBマガジン

      刃物を使用した路上での殺傷事件や、駅構内での暴力行為など日々の生活を脅かす犯罪が後を絶たない。 AI及びコミュニケーションロボットの開発を行う株式会社MJIは、このような現状を一刻も早く打破しようと、危険物や暴力行為、危険時の従業員の行動を検知するAI危険検知システム「&:」(アンド)を株式会社日本防犯システムと共同開発。2019年12月26日に京都の東寺にて、AI危険検知システムの有効性の確認を行うためのデモンストレーションを実施したことを発表した。 同システムは、不特定多数の人が出入りする場所・無人状態の店舗での放火、災害時における出火を一刻も早く検知し通知する。これは被害を最小限に抑えるために重要不可欠な要素だ。 なお、同社によると、システムの名称には、カメラに何かをプラスする意味での「and」。また、セキュリティレベルを高め、ユーザーを安心させる「安堵」の意味も込めている。 デモン

        セキュリティカメラ映像からAIが危険を検知 京都の東寺で「炎」と「ナイフ」の検知デモを実施 MJIと日本防犯システムが開発 - ロボスタ ロボスタ - ロボット情報WEBマガジン
      • 実写をアニメ風に変換してくれるWhite-box Cartoonizationやーる(Windows10、Python3.6) - Qiita

        実写をアニメ風に変換してくれるWhite-box Cartoonizationやーる(Windows10、Python3.6)Python画像処理OpenCVDeepLearningGAN はじめに 実写をアニメ風に変換してくれるWhite-box-Cartoonizationをやってみました システム環境 Windows10(RTX2080 Max-Q、i7-8750H、RAM16GB) Anaconda 2020.02 Python 3.6 導入 White-box Cartoonizationをクローンします。 White-box Cartoonization用の環境を作成します。 $ conda create -n wbc python=3.6 $ conda activate wbc $ cd White-box-Cartoonization-master $ pip insta

          実写をアニメ風に変換してくれるWhite-box Cartoonizationやーる(Windows10、Python3.6) - Qiita
        • 機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine

          著者 鶴田 博文, 坪内 佑樹 所属 さくらインターネット株式会社 さくらインターネット研究所 研究会 第8回WebSystemArchitecture研究会 1. はじめに インターネットを介して利用するシステムの大規模化に伴い,システムの構成要素数の増大や,構成要素間の関係性の複雑化が進んでいる. そのため,システムの性能に異常が発生したときに,システムの状態を示す指標であるメトリックをシステム管理者が網羅的に目視することや,メトリック間の関係性を把握することができず,システムの異常原因を特定することが難しくなっている. この問題を解決するために,深層学習などの機械学習モデルを用いて,システムの異常の原因を診断する手法が提案されている[1,2]. これらの手法は,システム管理者が異常の根本原因を絞り込むために活用することが期待できる. しかし,原因診断を行うためには,事前に機械学習モデ

            機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine
          • RaspberryPi と Movidius ではじめる OpenVINO 深層学習入門 - Qiita

            OpenVINO をはじめて利用する方向けの、基礎的な説明です。 RaspberryPi と Movidius(後ほど説明)を使って、実際にOpenVINO 深層学習を試します。 RaspberryPiのセットアップや深層学習は、多少知識があることを前提としています。 OpenVINO 概要 「OpenVINOツールキット」の略。 解説サイトはこちら製品概要: OpenVINO™ ツールキットですが、なんだか難しい気がするので簡単に解説すると。 様々なインテル製のアーキテクチャ(≒処理装置)上で、効率的にディープラーニングやAIを動作させることができる 無償のソフトウェア Tensorflow,Caffeなどで作成したモデルをモデル・オプティマイザーというツールで変換・効率化して使うため、作成済のモデルをエッジデバイスで活用できる/開発が容易 Movidius 概要 Movidius NC

              RaspberryPi と Movidius ではじめる OpenVINO 深層学習入門 - Qiita
            • 画像から説明文を生成するShow and Tellの論文要約 - Qiita

              Show and Tell: A Neural Image Caption Generator Oriol Vinyals, Alexander Toshev, Samy Bengio, Dumitru Erhan 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) https://arxiv.org/abs/1411.4555 本記事で読んだのはv2 ひとことまとめ どんなもの? 画像を入力して,画像の内容を説明した自然言語の文章を生成するネットワークNICの提案 先行研究と比べてどこがすごい? 画像のエンコードにCNN,デコードにRNNを使っていて,従来手法より性能が高い 技術や手法のキモはどこ? CNNとRNNを直接つなげることで,CNNからの視覚特徴と,RNNが扱う言語特徴を同じ埋め込み空間に

                画像から説明文を生成するShow and Tellの論文要約 - Qiita
              • 「このレシピは何人分?」を機械学習で推定する - クックパッド開発者ブログ

                研究開発部の原島です。在宅勤務中は部のメンバーと 3 時にラジオ体操をしています。今日はラジオ体操の話はおいといてレシピの分量の話をします。 1 人分、2 個分、三枚分、約 4 皿、5 杯くらい、18 cm タルト型、... クックパッドの一部のレシピは 1 人分のカロリーが計算されています。計算されたカロリーは検索結果の絞り込みや献立の作成などに使用されています。 ここでポイントとなるのは「1 人分」というところです。 レシピには、下図のように、その分量が記入されています。クックパッドの全レシピのうち、大体 50% のレシピの分量は「N 人分」という表記です。これらのレシピは、レシピ全体のカロリーを N で割ることで、1 人分のカロリーが計算できます。 レシピの分量 一方、残りの 50% のレシピの分量は「N 人分」という表記ではありません。その半分(全体の 25%)はそもそも表記があり

                  「このレシピは何人分?」を機械学習で推定する - クックパッド開発者ブログ
                • ディープラーニングとJetson nanoでEnd-to-Endな自動走行を実現した話〜Jetpilotを作ってみた〜 - masato-ka's diary

                  1. この記事について Jetson nanoを搭載した移動ロボットJetbotを作成し、前回はJetbotを使った単眼vSLAMを実行させた。 masato-ka.hatenablog.com しかしvSLAMはPC側で処理される。Jetson nanoはPCへ映像を送信するだけだ。これでは搭載されているGPUが活躍していない。せっかくなのでJetson nanoに搭載されているGPUの威力を体感したかった。 そこで今回はディープラーニング を利用して画像から直接判断して走行する、End-to-Endな自動走行にチャレンジしてみた。コースを追従するだけであれば、単純な画像認識によるライントレースと簡単なルールベースの仕組みで十分だろう。しかし、今回は前提となるルールを作るのではなくデータだけ与えて、ディープラーニングで解くのがポイントとなる。以下の画像のようにJetbotがコース上を追従

                    ディープラーニングとJetson nanoでEnd-to-Endな自動走行を実現した話〜Jetpilotを作ってみた〜 - masato-ka's diary
                  • 機械学習プロジェクトの アイデア出しと事前影響評価 / evaluate machine learning projects

                    Wantedly VisitやAmazonの事例を出しながら、ビジネス構造の可視化とアイデア出しや評価についてお話します。 エンジニアでない人が、エンジニアと関わりながら仕事を進めていく方法についてもTipsを書いています。

                      機械学習プロジェクトの アイデア出しと事前影響評価 / evaluate machine learning projects
                    • 機械学習のためのデータ収集に新たな希望!?半教師学習の最前線!

                      3つの要点 ✔️ 一部のクラスにラベルが付与されていないデータセットで学習する半教師学習の手法 ✔️ Consistency regularizationと呼ばれる手法で仮ラベルを付与し精度を向上 ✔️ 既存のデータセット(CIFER-10)で95%の識別精度を達成 FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence written by Kihyuk Sohn,David Berthelot,Chun-Liang Li,Zizhao Zhang,Nicholas Carlini,Ekin D. Cubuk,Alex Kurakin,Han Zhang,Colin Raffel (Submitted on 21 Jan 2020) Comments: Published by arXi

                        機械学習のためのデータ収集に新たな希望!?半教師学習の最前線!
                      • 育児×家事×IoT Raspberry Piで最強の防犯カメラを作ってみる(動画記録・配信、動体検知・Line通知、顔検知・顔認証、Alexa搭載)[4/6] - Qiita

                        Help us understand the problem. What is going on with this article?

                          育児×家事×IoT Raspberry Piで最強の防犯カメラを作ってみる(動画記録・配信、動体検知・Line通知、顔検知・顔認証、Alexa搭載)[4/6] - Qiita
                        • 手描き棒人間で3Dキャラクターのポーズを指定する - Dwango Media Village(ドワンゴメディアヴィレッジ,dmv)

                          Dwango Media Villageの古澤です。 この記事では、棒人間を描くことで、3Dキャラクタモデルのポーズを指定するデモとその手法について紹介します。 よろしければ、まずは下のデモを使ってみてください。 ポーズの指定には、手描きスケッチの検索と機械学習を用いた静止画からの3Dポーズ推定の手法が絡んでいます。 手法詳細を先に読まれたい方は、先にお進みください。 デモ このデモの公開は終了しました。 3つ表示される候補ポーズのうち、左端のポーズが反映されます。(第2,3候補は表示のみで選択はできません。) デモの操作説明 右側のキャンバスに棒人間を描くと、スケッチした棒人間に最も近いポーズをキャラクタがとります。 左上に表示されている3枚の棒人間は、左から近いとされたポーズ(棒人間画像)です。 その他に、背景を変更するボタンもあるので、その景色になじむポーズの画像を作成できます。 操

                            手描き棒人間で3Dキャラクターのポーズを指定する - Dwango Media Village(ドワンゴメディアヴィレッジ,dmv)
                          • Google Colaboratory上でYOLOを動かして画像認識させてみた – Kazuki Room ~ モノづくりブログ ~

                            Google ColaboratoryというGPUを無料で使えるサービスを使って画像認識させてみたいなと思ったので実際にやってみました。 日本語の情報はまだ少ないようなので少し苦労しましたがなんとかできました。 Colab上で画像認識させてみた結果がこちら。 人もコップも椅子も時計も全て認識してくれています。うん、いい感じです。 Google Colaboratory上の環境はこちらのページの通りに実施したらできました。ありがたやありがたや。今回は「darknet」というフレームワークを使用していますが、「Keras」を使用して動かす方法もあるようです。 ※以下のリンクではCUDA8.0をインストールするとなっていますが、この部分についてはインストールせずに既にインストールされている最新のCUDAをそのまま使用したほうがよさそうです。(2020/1/20追記) GitHub – ivang

                              Google Colaboratory上でYOLOを動かして画像認識させてみた – Kazuki Room ~ モノづくりブログ ~
                            • 育児×家事×IoT Raspberry Piで最強の防犯カメラを作ってみる(動画記録・配信、動体検知・Line通知、顔検知・顔認証、Alexa搭載)[6/6] - Qiita

                              Help us understand the problem. What is going on with this article?

                                育児×家事×IoT Raspberry Piで最強の防犯カメラを作ってみる(動画記録・配信、動体検知・Line通知、顔検知・顔認証、Alexa搭載)[6/6] - Qiita
                              • 日立、AIでTwitterから反響を分析 モラルと意外性の分析が可能に | Ledge.ai

                                株式会社日立製作所(日立)は10月7日、AI(人工知能)を活用し、Twitterなどのテキストデータから企業や商品に対する反響を「感情」の観点で分析・可視化する「感性分析サービス」に、新たに道徳の観点で分析する「モラル分析」、意外性の観点で分析する「意外性分析」の2つの機能を追加した。 「モラル分析」機能は、道徳基盤理論(※1)を参考に作成した道徳基盤辞書(※2)にもとづき、東京工業大学 笹原研究室の助言をもとに開発した。 (※1)アメリカの社会心理学者であるジョナサンハイトが提唱したもので、人は生まれつき道徳的な善し悪しに関する五つの普遍的・通文化的基盤を持っているとする理論。 (※2)Moral Foundations Dictionary(MFD)とJapanese Moral Foundations Dictionary(J-MFD)を活用している。 AIでテキストから特徴語を抽出

                                  日立、AIでTwitterから反響を分析 モラルと意外性の分析が可能に | Ledge.ai
                                • YOLO v3を使ってシャニマスのキャラクター画像認識&判別をしてみる - Qiita

                                  でインストールが可能. 実行 画像収集のためにコードを書く. シャニマスのアイドルを集めるために以下のようにする. 立ち絵が少ない印象だったので「キャラ名 コミュ」等も追加するといいかもしれない. from icrawler.builtin import GoogleImageCrawler google_crawler = GoogleImageCrawler( feeder_threads = 1, parser_threads = 2, downloader_threads = 4, storage = {'root_dir': 'shiny'} ) filters = dict( size = 'large' ) words = ["アイドルマスターシャイニーカラーズ","シャニマス","櫻木真乃","風野灯織","八宮めぐる", "月岡恋鐘","田中摩美々","三峰結華","白瀬

                                    YOLO v3を使ってシャニマスのキャラクター画像認識&判別をしてみる - Qiita
                                  • Deep Learningでカップ焼きそば判定アプリを作りたかった - Qiita

                                    この記事はTokyo City University Advent Calendar 2019,22日目の記事となります. https://adventar.org/calendars/4282 はじめに カニ@_BBPIと申します. 都市大四年目にして初めてこのようなアドベントカレンダーに参加出来て嬉しい限りです. 卒論がまだ全く書けてないので助けてください. 4年間の昼飯の話をします ピーナッツブロックチョコ #カニランチ _BBPI - Twitter検索 #カニランチ3rdSeason _BBPI - Twitter検索 異常です. カップ焼きそば最高~~~~~~~~~~~~~~~~~~~~~~~!!!!!!!!!! #KaniLunchとかいうオーストラリア留学中(TAP)に5袋1AUDのインスタントラーメンを食べ続けたこの世の終わりみたいなハッシュタグがありますが恥ずかしいので

                                      Deep Learningでカップ焼きそば判定アプリを作りたかった - Qiita
                                    • SushiGAN2 〜この寿司は実在しません〜 - Qiita

                                      はじめに 2年ほど前,私はGANというものに出会って感銘を受け,Qiitaで『SushiGAN 〜人工知能は寿司を握れるか?〜』というちょっと釣りっぽいタイトルの記事を書きました.中身はChainerのexampleにあったDCGANの実装を寿司の画像で学習させてみるというもので,下のようなモード崩壊気味の寿司画像を作って満足していました. あれから2年あまりが経ち,画像生成の技術は驚くべき発展を遂げました1.StyleGAN,そしてStyleGAN2が登場し,すぐには見分けがつかないほどの品質で1024x1024の人の顔の画像が生成できるようになりました [1].そのインパクトは凄まじく,"This Person Does Not Exist"を皮切りに,GANで生成したリアルな偽物のサンプルをランダムに表示するWebサイトがちょっとした流行になりました.いくつか例を挙げると,次のような

                                        SushiGAN2 〜この寿司は実在しません〜 - Qiita
                                      • Raspberry Pi 3B + Webカメラを使って機械学習のためのロボット自動走行用データセット(画像+ラベル)を用意しよう。 - Qiita

                                        Raspberry Pi 3B + Webカメラを使って機械学習のためのロボット自動走行用データセット(画像+ラベル)を用意しよう。機械学習Python3webcameraRaspberrypi3TurtleBot3 概要 さて、最近話題の機械学習ですが(多分)、画像認識や自然言語処理等、まだまだできることに限りがあるように思われます。すごい人、がんばれ! 背景としまして、(長いので読まなくていいです)元々はFPGAにPcamを刺して画像収集をして手動でラベル付けを済ませて学習させたのですが、その学習済みモデルはなんと学習で使われた角度における白線の角度ではうまくいった(あくまで正答率での話)のですが、高速で推論させるためにラスベリーパイにエッジTPUを刺して、ラズパイをホストにして計算させるためにラズパイにWebカメラをさして演算させようと思ったところ、カメラの位置や角度が大きく変わって

                                          Raspberry Pi 3B + Webカメラを使って機械学習のためのロボット自動走行用データセット(画像+ラベル)を用意しよう。 - Qiita
                                        • 社内勉強会で機械学習の概要について話しました | DevelopersIO

                                          AWS事業本部では社内勉強会を定期的に開催しているのですが、機械学習というテーマで話す機会がありましたので、その内容について公開します。事前アンケート結果に基づき機械学習の概要と案件の特徴について話しました。 スライド Pythonスクリプト スライド内で利用したPythonスクリプトは以下になります。Colaboratoryで実行できることを確認しています。本当はipynb形式でGistに上げたかったのですが、なぜかエラーになってしまうので諦めました。また、このスクリプトはITエンジニアのための機械学習理論入門:書籍案内|技術評論社に付属する 04-perceptron.py をベースにしています。 最後に 機械学習関連では3年前に#cmdevio2016 (レポート: C-1) データ分析チームの振り返りについて話しました | DevelopersIOで話したのですが、当時よりは機械学

                                            社内勉強会で機械学習の概要について話しました | DevelopersIO
                                          • 【開催報告&資料公開】ML@Loft #3 – Recommendation | Amazon Web Services

                                            AWS Startup ブログ 【開催報告&資料公開】ML@Loft #3 – Recommendation AWS 機械学習ソリューションアーキテクトの宇都宮 (Twitter: @shokout) です。本ブログでは ML@Loft 第3回「レコメンド」の開催概要を報告します。 ML@Loft は、 機械学習を AWS 上でプロダクション運用しているデベロッパー・データサイエンティストのためのコミュニティイベントです。毎月テーマを設定し、前半は各分野のエキスパートの方々からのLT、後半は機械学習のサービス導入のノウハウや様々なツラミについて、LT のご講演者の方々を交えて参加者全員参加型のお悩み相談ラウンドテーブルという構成で AWS Loft Tokyo にて実施しています。 第2回 [Blog] は、第1回で好評だった MLOps のテーマを引き続き、そして今回 6/21 (金)

                                              【開催報告&資料公開】ML@Loft #3 – Recommendation | Amazon Web Services
                                            • 2019年までのCAM(Class Activation Map)まとめ - Qiita

                                              はじめに この記事は,一応「Deep Learning論文紹介 Advent Calendar 2019」の12/20に投稿する予定だったものですが,ずれにずれた結果,2019年のギリギリになって焦って今頃焦って投稿したものです.全然間に合っていなくて申し訳ありませんでした...また,一応記事内の記号は統一するようにしていますが,画像内の記号まで統一はできていません...それでも良いという方はどうぞご覧ください. 本記事の概要 個人的な見解ですが,今回取り上げるCAM(Class Activation Map)は判断根拠をハイライトする方法として結構有名なものだと思います.後にも述べますが,CAMをより様々なネットワークに対応させたものにしたGrad-CAMと呼ばれる手法があるのですが,来年の某SAIとかでも使用した原稿が多く投稿されると思いますので,ここで一度整理したいと思いまとめました

                                                2019年までのCAM(Class Activation Map)まとめ - Qiita
                                              • 【2019年12月版】ラズパイDJにもっとリスナーの声を届けたい!【Angularで音声認識!】 - Qiita

                                                株式会社ピーアールオー(あったらいいな!を作ります) Advent Calendar 2019 の25日目。2019年のアドベントカレンダーのフィナーレを飾る、筆者のマジであったらいいな!はこちら〜! リスナーの声を届けたい! → DJに"声"でリクエストしてみよう! 前回の記事での DJ-Bot は Bot と言いつつ固定のキーワードしか持てないのでリスナーの"声"が届かないDJなのですよね・・・ ぢゃ〜、Chrome搭載の音声認識APIを使って、リスナーの"声"をガチでラズパイDJに届けてみましょうか!(マジすか?!) ということで…今回はAngularにて、"マイクからの音声を文字列に変換して送信する"リクエストフォームを作成いたします。 さらにこれをNode-REDにそのまま載せてみたいと思います。 1. Node-RED を SSL 対応 & 静的サイト有効化 まずはNode-R

                                                  【2019年12月版】ラズパイDJにもっとリスナーの声を届けたい!【Angularで音声認識!】 - Qiita
                                                • YOLOv3+pythonで車載動画中のバイクを認識し動画にする - Qiita

                                                  リアルタイムに物体認識できるYOLOですが、最近YOLOv3が登場しました。 これを使って、試しに簡単な動画解析プログラムを組んでみます。 さて、私は、趣味でバイクに乗っていて、ドライブレコーダー代わりに、安価なアクションカメラを付けて、動画を撮影することがあります。 ただ、車載動画は撮影しても、長すぎて全部見返すことはほとんどありません。いいシーンだけ抜き出してくれればなぁと常々思っています。 ところで、バイク同士がすれ違うときに、軽く手を降るなど挨拶する文化があり、YAEH(ヤエー)と呼ばれています。 市街地ではほとんどないですが、ツーリングスポットでお互い集団だと時々ヤエーされたりします。 youtubeには多くのヤエー動画がアップロードされてます。 YOLOを使って、バイクとのすれ違いシーンをうまく切り出すことができれば、「YAEH(っぽいところ)動画」を自動的に作ることができそう

                                                    YOLOv3+pythonで車載動画中のバイクを認識し動画にする - Qiita
                                                  • 【入門編】自然言語処理(NLP)とは | 意味・仕組み・活用例・課題 | Ledge.ai

                                                    サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。

                                                      【入門編】自然言語処理(NLP)とは | 意味・仕組み・活用例・課題 | Ledge.ai
                                                    • Raspberrypi zero WとABEJA Platformを活用した侵入者通知アプリを作る - Y's note

                                                      やりたいこと 家庭で簡単に防犯カメラを作りたいと思い、下記のアイテムを利用して作ってみました。 僕の家はマンションの1階にあり、5〜6畳分の庭が付いています。庭内には植物・野菜を栽培したり洗濯物を干しているので、1階に住む住人としては不審者が入ってこないかどうかが気になったりします。そこで、Raspberrypi zero W, camera module, ABEJA Platform, LINE Messaging APIを用いて、不審者が庭内で検出された場合にLINEに通知が来る仕組みを作りたいと思います。LINEに通知するのは極力リアルタイムで検知したいというのと、写真で証拠を記録し通報に利用できるというメリットがあります。家庭のセキュリティサービスを展開しているものもありますが、初期工事費用や月額でそれなりにするので、もっと簡易な防災通知ができたらと思って試してみました。今回のR

                                                        Raspberrypi zero WとABEJA Platformを活用した侵入者通知アプリを作る - Y's note
                                                      • cBioPortalのがんゲノムを可視化してみた - Qiita

                                                        ディレクトリのサイズは全部で 90GB もあるのでダウンロードには時間がかかります。しかしsraファイルを直接ダウンロードして自分で処理する手間や時間を考えたらほぼ 0GBに等しいと言って差し支えないでしょう(強弁)。 がんの変異、RNA発現、コピーナンバー、メチル化のデータをプロットする さて、このように大量にデータを入手してみたら、なんとなく全体像を可視化してみたいと思わないでしょうか? 突然ですが私はRubyが大好きです。Rubyでグラフを描くためのツールGR.rbを自作しています。(正確にはffiを用いたGR FrameworkのRubyバインディングです。) そこで自作のツールを使用して、がんゲノムのデータを大雑把に可視化してみることにしました。 https://qiita.com/kojix2/items/456259f40d5563005cd1 また、データフレームの代用とし

                                                          cBioPortalのがんゲノムを可視化してみた - Qiita
                                                        • ロジスティック回帰を導出から実装までみっちり途中式解説 - Qiita

                                                          問1:ロジスティック回帰を行うためにデータを書き換えよ ロジスティック回帰では目的の分類クラスを1,0に変換することで、クラスを確率として扱う。 1=100%として考えることで、0~1までの数値の回帰によってクラス分類を達成する。 そのため以下のように書き換えた。 また、切片項を使用しないので、事前に得られている平均値から各データを引いておく。 sex height 問2:1から0までの値で出力するための変換関数(シグモイド関数)を書け ロジスティック回帰ではシグモイド関数によって1から0の間に値を変換する。 数式に苦手感を感じる人はexp(x)という記号が2.718のx乗だと考えてくれればいい。 関数として描画すると以下のような形になる。 問3:ロジスティック回帰の尤度関数から負の対数尤度関数までの流れを記述せよ まずロジスティック回帰ではシグモイド関数に 男の時(sex = 1)のデー

                                                            ロジスティック回帰を導出から実装までみっちり途中式解説 - Qiita
                                                          • LINEのAI・機械学習の取り組みを一挙紹介〜顔認識入場や電話予約対応AI、不審ユーザ認知など実現 | Ledge.ai

                                                            事前登録された写真から、タブレットで顔認識と入場登録可能会場に到着後、まず目を引いたのが入場登録の顔認証システムだ。事前にLINE経由で写真を登録したうえで、受付にあるiPadを覗き込むと、写真データをもとに顔を認識し15秒程度で入場登録を完了できる。 「AIカンパニー」としての位置づけを強調今回のKeynoteスピーチで特徴的だったのは、2018年に引き続きAI技術そのものにフォーカスした発表がトップを飾ったことだ。スピーチ冒頭でもパク・イビンCTOは、同社のビジョン「LIFE with LINE」に触れ という、同社がよりAI技術へ注力していく方針を示した。 LINE DevDay 2019 Keynote p.5より LINEのAI技術とノウハウが詰まった 「LINE BRAIN」スピーチではパクCTOのほか、AI、データ、セキュリティのパートごとに3名が登壇した。「Natural

                                                              LINEのAI・機械学習の取り組みを一挙紹介〜顔認識入場や電話予約対応AI、不審ユーザ認知など実現 | Ledge.ai
                                                            • AI(機械学習) × イラスト リンク集 - Qiita

                                                              概要 特にコンピュータービジョンの分野についてのリンク集です. 春から卒業研究をする人や, この分野を学んでみたいけど応用対象が見つからない人などの参考になれば幸いです. ライブラリ lbpcascade_animeface.xml (lbpcascade_animeface · GitHub) アニメ顔検出の学習済みモデル. 多くの文献にて使われており, 精度も高いです. 寺島ら1 によると, 様々な人によって描かれた一人, もしくは複数人のキャラクターが描かれているイラスト画像2635 枚に対して行ったキャラクター顔検出の性能は, 精度:約95%, 再現率:約52% となっています. プログラム自体も数行で終わり, 導入も簡単であるため, ちょっとしたお遊びでも有用です. 実際に使用する際に, バウンディングボックスを1.5倍の割合でズームアウトさせることもあります. illustra

                                                                AI(機械学習) × イラスト リンク集 - Qiita
                                                              • Python: LightGBM の学習率を動的に制御する - CUBE SUGAR CONTAINER

                                                                LightGBM の学習率は基本的に低い方が最終的に得られるモデルの汎化性能が高くなることが経験則として知られている。 しかしながら、学習率が低いとモデルの学習に多くのラウンド数、つまり計算量を必要とする。 そこで、今回は学習率を学習の過程において動的に制御するコールバックを実装してみた。 きっかけは以下のツイートを見たこと。 validation scoreをモニタリングして、lr=0.1で限界に達したらlr=0.01に下げる、みたいなことやったら面白い気がする。誰かcallback使って実装して欲しい https://t.co/iaG6rNo1t5— mamas (@mamas16k) 2019年7月17日 なるほど面白そう。 下準備 使用するライブラリをあらかじめインストールしておく。 $ pip install lightgbm seaborn scikit-learn 学習率を動

                                                                  Python: LightGBM の学習率を動的に制御する - CUBE SUGAR CONTAINER
                                                                • 2020年に読むべきデータサイエンスに関する書籍 - Qiita

                                                                  こちらの記事は、Przemek Chojecki 氏により2019年 11月に公開された『 Data Science Books you should read in 2020 』の和訳です。 本記事は原著者から許可を得た上で記事を公開しています。 データサイエンスは間違いなく今最もホットな市場の1つです。ほとんどすべての企業が、データサイエンスの職種を募集している、もしくは検討しています。 つまり、データサイエンティストになるのには最適な時期です。もしくはすでにデータサイエンティストであり、上級職に昇格したい場合は、スキルを磨くのに最適な時期です。 この記事では、データサイエンスに関する最も人気のある書籍のいくつかを扱っています。 入門レベル データサイエンスの冒険を始めたばかりなら、ぜひ試してみてください Data Science from Scratch は、その名の通り、全くの初心

                                                                    2020年に読むべきデータサイエンスに関する書籍 - Qiita
                                                                  • Microsoft Custom Vision Service を使用した鼓膜画像認識 - Qiita

                                                                    概要 プログラミングの勉強を始めて5か月程の開業医です。 他分野に遅れながらも医療業界でもAIの新たな技法が開発・改良されています。すでに心電図・内視鏡・MRI・CT・眼底・病理などの画像診断の研究が進められていますが、耳鼻科領域での報告はほぼありません。 今回、様々な鼓膜の写真をMicrosoft Custom Vision Serviceにまとめて学習させることで急性中耳炎か滲出性中耳炎か正常鼓膜かを判断させ、その診断精度を計測してみました。 使用した鼓膜画像は画像認識技術開発のために使用することに同意いただいたものを匿名化し使わせて頂きました。 方法 1.Microsoft LearnとAzureアカウントの取得 こちらを参考に outlook.jp のアカウントを作りました。 MicrosoftアカウントのOutlookメールアドレスを取得する方法 - Qiita 2.Displa

                                                                      Microsoft Custom Vision Service を使用した鼓膜画像認識 - Qiita
                                                                    • ディープラーニングを用いて、乃木坂46 メンバーからアニメキャラクター変更 - Qiita

                                                                      背景 CycleGANはあるスタイルの画像から他のスタイルに変更できます。 区別 CycleGANは非ペアのデータセットが必要。 データセット アニメ写真7000枚 アイドル写真7000枚 データセットの収集には、クローラプラスopencvターゲット検出アルゴリズムを使用して、画像を切り取ります。 code opencvターゲット検出アルゴリズム import cv2 import sys import os.path from glob import glob def detect(filename, cascade_file="haarcascade_frontalface_alt.xml"): if not os.path.isfile(cascade_file): raise RuntimeError("%s: not found" % cascade_file) cascade

                                                                        ディープラーニングを用いて、乃木坂46 メンバーからアニメキャラクター変更 - Qiita
                                                                      • NTTデータ、KDDI、ヤフーなど有名企業も利用! 法人向けUdemyで人気のおすすめ講座5選+α (※セール終了いたしました) - Qiita Zine

                                                                        タイアップ トピックス NTTデータ、KDDI、ヤフーなど有名企業も利用! 法人向けUdemyで人気のおすすめ講座5選+α (※セール終了いたしました) Qiitaユーザーの皆さん、年の瀬が近くなりお忙しく過ごされているかと思いますが、いかがでしょうか?12月はQiita アドベントカレンダーもありますので、Incrementsは忙しい毎日です。皆さんもお忙しい中だと思いますが、自身の学習に時間を使えていますか? Udemyでは皆さんの学習を支援するための講座がたくさんあります。 今回はUdemyで支持されている講座の中から、法人向けUdemyでよく視聴されている講座に着目し、大手企業が社員研修で活用している人気講座をご紹介します。 法人向けUdemyはNTTデータ、KDDI、ヤフーなど名だたる有名企業に導入されている人材育成サービス。このような企業で受講されている講座は、今まさに企業が育

                                                                          NTTデータ、KDDI、ヤフーなど有名企業も利用! 法人向けUdemyで人気のおすすめ講座5選+α (※セール終了いたしました) - Qiita Zine
                                                                        • オンデバイス機械学習モデルでYahoo!知恵袋アプリのUXを改善 〜 Core ML活用事例 #機械学習

                                                                          ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは、iOSアプリ黒帯の林(@kazuhiro494949)です。 私は普段の仕事の一環として、横断的に解決が必要な技術課題や新技術のアプリへの実用化などにボトムアップで取り組んでいます。 50を超えるヤフーのスマホアプリ、チームを越えて課題解決やノウハウの共有を実現【デブサミ2019夏】 ヤフーアプリの品質向上戦略 以前このチームでYahoo!知恵袋アプリに機械学習モデルを組み込み、UX改善を行いました。その機械学習ライブラリであるCore ML導入事例を紹介します。 それを通して、アプリの体験向上へ機械学習モデルを積極的に使っていく際のポイントなどをお伝えできればと思います。 Yahoo!知恵袋の不適切投稿判定 Yaho

                                                                            オンデバイス機械学習モデルでYahoo!知恵袋アプリのUXを改善 〜 Core ML活用事例 #機械学習
                                                                          • jetson nano上でTensorFlow環境を構築する - Qiita

                                                                            方針 ndivia提供のコンテナを使います。この記事で紹介する以外にも、色々なコンテナがあります。 nvidia NGC この記事で使うコンテナはこれです。 Machine Learning for Jetson/L4T The l4t-ml:r32.4.2-py3 tag is available for Python 3.6 with the following components: l4t-ml:r32.4.2-py3 TensorFlow 1.15 PyTorch v1.5.0 onnx 1.6.0 numpy 1.18.2 pandas 1.0.3 scipy 1.4.1 scikit-learn 0.22.2 JupyterLab 2.0.1 note: the l4t-ml container requires JetPack 4.4 Developer Preview (

                                                                              jetson nano上でTensorFlow環境を構築する - Qiita
                                                                            • Engadget | Technology News & Reviews

                                                                              iPad Pro (2024) review: So very nice, and so very expensive

                                                                                Engadget | Technology News & Reviews
                                                                              • スパースモデリングの画像処理への発展的な応用~欠損補間、異常検知、超解像

                                                                                画像の欠損補間 実世界の問題において、データが欠損していることが多々あります。そのような場合にも、スパースであるという仮定をうまく利用することで、データの欠損を補間することができます。 前回、画像の再構成について紹介したとき、自然画像をパッチに区切って辞書学習を行うと、各パッチは得られた辞書を用いてスパースに表現できることがわかりました。実はこの辞書とスパース表現は、学習画像に、ある程度欠損があったとしても、うまく求めることができるのです。 なぜ、そんなことが可能かというと、例えば100変数の連立方程式を考えたときに、式の数は100個あれば全ての変数の値を決定できます。データとして10000個方程式があったとしても、そのうちの1%だけを使って連立方程式を解くことができます。また、方程式の解がほとんど0であるとわかっている場合も少数の方程式から解が得られることが知られています。つまり、100

                                                                                  スパースモデリングの画像処理への発展的な応用~欠損補間、異常検知、超解像
                                                                                • キユーピー、AI活用に成功した4つのワケ。食品の原料検査の事例から考える | Ledge.ai

                                                                                  キユーピー株式会社 生産本部 未来技術推進担当 テクニカル・フェロー(兼)未来技術推進担当 次世代技術推進チーム チームリーダー 荻野武(おぎのたけし)氏 「AI活用事例を聞く」では、製造や建設、金融、不動産、エンタメなど、さまざまな業界における人工知能(AI)活用について、各企業の担当者に聞いていく。 AIは日々、関連ニュースを目にすることはない日はないほど、熱い注目を浴びている。一方で、実際のビスネス現場での活用にはなかなか結びつきにくい状況と言える。 そんななか、キユーピー株式会社では、チャットボットを使った顧客対応など、さまざまな場面でAIを活用している。すでに社内では10数件のAIが稼働しており、現在でも数10件以上のAI活用プロジェクトが動いているという。 「AIを活用した原料検査装置をグループに展開」より なかでも、キユーピーが手がける食品の原料検査装置は注目度が高い。AIに

                                                                                    キユーピー、AI活用に成功した4つのワケ。食品の原料検査の事例から考える | Ledge.ai