タグ

学習とデータに関するiwanofskyのブックマーク (6)

  • リアルタイムに議事録をテキストデータ化「AI GIJIROKU」提供開始 | AMP[アンプ] - ビジネスインスピレーションメディア

    オルツテクノロジーズは、会議議事録を自動で文字起こしを行う「AI GIJIROKU(AI議事録)」の提供を開始した。 「AI GIJIROKU」とは、同社のグループ企業であるオルツの研究チームによるAI要素技術を駆使し、録音音声の書き起こしや手書きメモを再度手入力することが基であった会議の議事録を、リアルタイムにテキストデータ化するサービス。 会議参加者の音声を自動で録音・記録し、音声認識によりリアルタイムで会議内容をテキスト化し、精度の高い話者分離機能を搭載しているため、会議参加者が増えた場合でもはっきりと発言者を判断するという。 会議終了後には、テキストデータを共有することも可能。 また、音声認識にミスがあった場合、その都度入力し直しの手間が発生していたが、「AI GIJIROKU」では、話者の音声データを蓄積し、機械学習の学習素材とすることで、オルツ研究チームの成果である、「パーソ

    リアルタイムに議事録をテキストデータ化「AI GIJIROKU」提供開始 | AMP[アンプ] - ビジネスインスピレーションメディア
    iwanofsky
    iwanofsky 2020/01/15
    まずは、国で使おうよ、、
  • 「Amazon Forecast」が正式リリース。過去の時系列データを与えるだけで機械学習による予測をしてくれる、専門知識不要のサービス

    Amazon Forecast」が正式リリース。過去の時系列データを与えるだけで機械学習による予測をしてくれる、専門知識不要のサービス Amazon Forecastは、なんらかの時系列データおよびその時系列データに影響を与えたであろう周辺情報、例えばある店舗の売り上げの時系列データおよび、その店舗の場所の天候、気温、交通量、曜日や祝祭日など売り上げに影響すると思われる周辺情報を与えると、予測に必要な機械学習モデルの構築、アルゴリズムの選定、モデルの正確性の検証や改善などを全て自動で実行し、売り上げに関する予測のデータを出力してくれるというサービスです。 一般に、機械学習を活用するには、学習用のデータと検証用のデータを用意し、学習用のデータから求められた予測結果を検証用データで検証して正確性を評価し、より適切なモデルやアルゴリズムを選択する、といった作業が発生します。 Amazon Fo

    「Amazon Forecast」が正式リリース。過去の時系列データを与えるだけで機械学習による予測をしてくれる、専門知識不要のサービス
  • 生データ使い放題?! 「日本は機械学習パラダイス」になった ― DEEP LEARNING LAB 勉強会

    ご注意:記事は、@IT/Deep Insider編集部(デジタルアドバンテージ社)が「deepinsider.jp」というサイトから、内容を改変することなく、そのまま「@IT」へと転載したものです。このため用字用語の統一ルールなどは@ITのそれとは一致しません。あらかじめご了承ください。 日マイクロソフト主催の勉強会「DEEP LEARNING LAB: AI開発を円滑に進めるための契約・法務・知財」が1月25日に開催された。 AIに関する法的な課題となる事例や、AIを「発注するユーザー」と「作るベンダー」はどう契約を結べばよいのか、について、具体的にガイドラインを示しながら説明された。実際にAIを取り組もうとしている企業にとっては参考になる話が多く、筆者自身も大いに参考になった。 その内容をすべてお伝えしたいところだが、3時間ほどの長丁場であり、しかも残念ながら動画配信などもなかった

    生データ使い放題?! 「日本は機械学習パラダイス」になった ― DEEP LEARNING LAB 勉強会
  • Kaggleで世界11位になったデータ解析手法~Sansan高際睦起の模範コードに学ぶ|ハイクラス転職・求人情報サイト AMBI(アンビ)

    Kaggleで世界11位になったデータ解析手法~Sansan高際睦起の模範コードに学ぶ Kaggleの上位入賞者であるKaggle Grandmasterを獲得した、Sansan株式会社のデータサイエンティスト高際睦起さん。模範となるソースコードをもとに考え方や解析手法を教えていただきました。 「Porto Seguro’s Safe Driver Prediction」とは? 【技法1】前処理 【技法2】特徴抽出 【技法3】予測モデルの作成 Kaggle初心者は何から始めるべき? データサイエンティストを目指す若き人たちへ 世界中のデータサイエンティストたちが集まり、企業や研究者が投稿したデータに対する高精度なモデルを競い合うプラットフォーム・Kaggle。メンバーは100万人を超えており、良問の多さや参加者のレベルの高さゆえに、機械学習を学ぶ者にとって優れた研鑽(けんさん)の場となって

    Kaggleで世界11位になったデータ解析手法~Sansan高際睦起の模範コードに学ぶ|ハイクラス転職・求人情報サイト AMBI(アンビ)
  • B'zの歌詞をPythonと機械学習で分析してみた 〜LDA編〜 - 下町データサイエンティストの日常

    1. Part概要 前PartではB'zの歌詞を「TF-IDF」を用いた分析を行いました。 Partではトピックモデルの一つである「LDA」を用いた分析についてお話しします。 pira-nino.hatenablog.com 2. LDAとは 2.1 LDAのイメージ 先に簡単な説明をしてしまいます。 LDAは「たくさんの文書データから単語のグルーピングを行う」モデルです。 このグループ1つ1つを「トピック」と呼びます。 例えば、大量のニュース記事にLDAを適用する例を考えます。 ニュース記事データにLDAを適用した例 LDAでは「各トピック(トピック数は予め指定)における各単語の所属確率」が算出されます。 理論的なことはさておき、文書データから単語をいくつかのグループに自動で分けてくれる手法 との理解で大丈夫です。 よく勘違いされることとして以下の2点を示します。 トピック数(いくつ

    B'zの歌詞をPythonと機械学習で分析してみた 〜LDA編〜 - 下町データサイエンティストの日常
    iwanofsky
    iwanofsky 2018/07/31
    楽しそー
  • 大井競馬で帝王賞を機械学習で当てた話 - Qiita

    概要 大井競馬場に行く機会があったので、機械学習を使って競馬の結果を予測できるかをやってみました。 その結果、帝王賞で一位を当てることができたので、記事を書きます。 かなり適当な予測なので、遊びとして見てもらえたらと思います。 証拠 当たったという証拠に、記念でとった馬券画像。 機械学習で予測したものと、パドックを見て予測したものと、2つ買いました。 (びびって複勝、しかも300円) 問題の設定 大井競馬場で行われる帝王賞の1位のみを当てます。 競馬には、色々な馬券の買い方がありますが、今回は簡単でシンプルな問題設定としたかったので、1位のみを予測することにしました。 データの取得 教師あり学習を行うので、過去の競馬結果のデータが必要です。 こちらのサイトからデータをクローリングしました。 南関東4競馬場公式ウェブサイト レース情報のページから、レースに出る馬の過去情報があるページへのリン

    大井競馬で帝王賞を機械学習で当てた話 - Qiita
    iwanofsky
    iwanofsky 2018/07/11
    興味深い
  • 1