並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 599件

新着順 人気順

機械学習系読物の検索結果1 - 40 件 / 599件

  • 効率よくコーディングを進めるためにChatGPTを使ってみよう

    この記事について この記事は、 Web制作の基礎から学べる「Webコーディングスクール」 などの資料制作をお手伝いして頂いているemiさんによる寄稿記事です。 emiと申します。USAGI DESIGN emi.というサイトでWebデザインやコーディング練習用のデザインデータを配布しています。Webデザインをメインにストックイラストレータ、グッズデザインなどしております。 ChatGPTとは ChatGPTはOpenAIが開発した対話型のチャットボットです。質問を入力すると質問に対する回答が出力されます。 今回はChatGPTを使って、効率よくコーディングを進めてみます。 headタグ内のコードをChatGPTで生成しよう HTMLの大枠をChatGPTを使ってコーディングしてみよう グロナビをChatGPTで生成してみよう ボタンをホバーした時のCSSをChatGPTで生成してみよう H

      効率よくコーディングを進めるためにChatGPTを使ってみよう
    • 画像の機械学習が劣化する理由 - Qiita

      前書き 注意:ここに書いていることは2020年代としては、古すぎる見解になっている。 近年の自己教師あり学習の大幅な進展で、ここで述べているようなアプローチは大幅に古めかしいものになっている。 ・自己教師あり学習の進展は、画像認識タスクに対する共通のbackbone を作り出しており、後段で個々の画像認識タスクに対するfine-tuningをするアプローチに変わってきている。 ・そのため、ラベル付きの限られたデータで特徴量の抽出をしていたのが、自己教師あり学習に基づく特徴量の抽出になっている。 ・各人、自己教師あり学習について調べることをお勧めする。 主旨 単純に学習データを追加するだけでは学習が改善しないことがある。そのような場合へのヒントを著者の限られた経験の中から記述する。 はじめに 画像認識の機械学習を改善するためにはデータを追加すればよい。 そう思っている人が大半だろう。 ただ、

        画像の機械学習が劣化する理由 - Qiita
      • 機械学習でなんとかしようと安易に考えるな - Qiita

        世の中にはよい機械学習の結果が存在する。高い精度で推論(分類・検出)できるものがある。 だから、データの特性が、元々の想定から変わった時にも「機械学習だから、学習させればなんとかなるよね」と期待する人がいるかもしれない。 この文章は、そのような安易な考え方に立つことを戒めるために書く。 (もちろん、機械学習は今までになかった価値をいろんな分野にもたらす可能性が極めて高い。) (主張したいことは、 ビジネスとして見返りが期待できる内容の機械学習をすること。 100%の精度が期待できる機械学習は、そんなに多くない。それでも見返りが期待できる使い方をしてほしい。 1人のエンジニアに支援なしに丸投げするのではなく、チームとしての支援が有効であること。 最初の問題設定を疑ってかかること。手書き文字認識の強化で宅配便の伝票をなんとかするよりは、手書きを必要としない方がいい。 ) garbage in

          機械学習でなんとかしようと安易に考えるな - Qiita
        • AIプロジェクトにおける説明可能性の方針 - techtekt

          こんにちは。デジタルテクノロジー統括部でアナリストをしているY・Nです。 パーソルキャリアのデジタルテクノロジー統括部は、一般社団法人データサイエンティスト協会が定める「データサイエンティストに求められるスキルセット」を基に、以下の3つのグループが組織されています。 ビジネスグループ アナリティクスグループ エンジニアグループ 出典:データサイエンティスト協会 これらの3グループが互いに連携しあい、AI(ここでは機械学習による予測モデルを指すことにします)によって様々な業務を自動化させたり、意思決定の補助に利用させるプロジェクトに取り組んでいます。 その際、「AIの判断根拠をどの程度(どの様に)見せれば良いか」ということが常にビジネスグループで議題に上がります。殊にAIの予測結果を人間(特に営業部門の人)が見た上で意思決定の補助として利用する場合に顕著で、判断根拠が表示されないブラックボッ

            AIプロジェクトにおける説明可能性の方針 - techtekt
          • 総務省「誰でも使える統計オープンデータ」無料オンライン講座スタート

            総務省は1月11日、データサイエンスのオンライン講座「誰でも使える統計オープンデータ」を、MOOC講座プラットフォーム「gacco」で開講した。社会人・大学生に、統計オープンデータを活用したデータ分析の手法を解説する講座で、3月7日まで受講できる。 週約3時間×4週間の内容。政府統計の総合窓口「e-Stat」、総務省と統計センターが提供する統計GIS、API機能などを使い、データ分析の手法を学べる。 講師は「統計学が最強の学問である」の著書で知られる統計家の西内啓氏や、総務省統計局の担当者など。 2017年6月に初開講して以来、断続的に開講し、のべ約2万8000人が受講した講座。 関連記事 政府が「ワクチン接種状況ダッシュボード」公開 性別や都道府県別に可視化 政府が、全国の新型コロナワクチンの接種状況を一覧にまとめた「ワクチン接種状況ダッシュボード」を公開。統計情報をまとめたCSVやJS

              総務省「誰でも使える統計オープンデータ」無料オンライン講座スタート
            • 自然言語系AIサービスと著作権侵害|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】

              第1 はじめに 自然言語処理技術の発展に伴い、自然言語AIを利用したサービスが大変盛り上がっています。 たとえば、検索、要約、翻訳、チャットボット、文章の自動生成、入力補完などのサービスで、近いところで有名なのは、2020年にOpenAIが発表した「GPT-3」ですかね。これは約45TBにおよぶ大規模なテキストデータを学習し、あたかも人間が書いたような文章を自動で生成することが可能な自然言語モデルです。 【参考リンク】 自然言語処理モデル「GPT-3」の紹介 進化が止まらない自然言語処理技術ですが、事業者が自然言語AIを利用したサービス(*ここでは、データの処理がクラウド上で自動的に行われるサービスを前提とします)を提供する際に検討しなければならないことは、大きく分けると、学習済みモデルの構築フェーズの問題と、モデルを利用したサービス提供フェーズに関する問題に分かれます。 このうち、モデル

                自然言語系AIサービスと著作権侵害|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】
              • 最初の数行を入力すると小説の続きを書いてくれるAI登場 設定次第で俳句やニュースも

                ユーザーが冒頭の文章を数行書くと、続きをAIが作文するWebサービス「AIのべりすと」が登場し、一部で話題になっている。例えば、「吾輩は猫である。名前はまだない。そんな吾輩は今」のように書き出しを入力すると「とある場所にいる。そこはどこかというと、我が家のリビングだ。ソファに腰掛けてテレビを見ているのは、俺の妹である美夏だ」のように続きを出力する。

                  最初の数行を入力すると小説の続きを書いてくれるAI登場 設定次第で俳句やニュースも
                • 日立、AIでTwitterから反響を分析 モラルと意外性の分析が可能に | Ledge.ai

                  株式会社日立製作所(日立)は10月7日、AI(人工知能)を活用し、Twitterなどのテキストデータから企業や商品に対する反響を「感情」の観点で分析・可視化する「感性分析サービス」に、新たに道徳の観点で分析する「モラル分析」、意外性の観点で分析する「意外性分析」の2つの機能を追加した。 「モラル分析」機能は、道徳基盤理論(※1)を参考に作成した道徳基盤辞書(※2)にもとづき、東京工業大学 笹原研究室の助言をもとに開発した。 (※1)アメリカの社会心理学者であるジョナサンハイトが提唱したもので、人は生まれつき道徳的な善し悪しに関する五つの普遍的・通文化的基盤を持っているとする理論。 (※2)Moral Foundations Dictionary(MFD)とJapanese Moral Foundations Dictionary(J-MFD)を活用している。 AIでテキストから特徴語を抽出

                    日立、AIでTwitterから反響を分析 モラルと意外性の分析が可能に | Ledge.ai
                  • オープンデータ、使ってほしいけどオススメしづらい3つの理由

                    Yahoo! JAPAN Digital Hack Day 2021の技術紹介イベントでのプレゼン資料です。 https://hackday.yahoo.co.jp/ アーカイブ動画はこちらからご覧頂けます。 https://youtu.be/3e9OPS8qSA4?t=9890

                      オープンデータ、使ってほしいけどオススメしづらい3つの理由
                    • 「吉幾三を入れたら壊れた」「おおきなかぶは抜けなかった」東京大学発の企業が開発した「何でも3行で要約してくれるAI」がさっそくツイッタラーのおもちゃに成り果てる

                      にゃんこそば🌤データ可視化 @ShinagawaJP オープンデータを使って都市の姿を可視化したり、防災/天気/住まいなどの関心分野を呟いています。 💻QGIS/Mapbox/Vis.gl/Tableau/Python/R にゃんこそば🌤データ可視化 @ShinagawaJP いくつか試してみたけど、ちょっと数字が苦手かな?という感はある。 例えば『ジャイアントパンダの名前募集」の記事、2頭の子パンダの体重が両方とも違う(謎の数字に置き換わってる)。 DeepLみたいにいろんな文章を食べながら成長していくのかな?今後が楽しみ。 digest.elyza.ai/summaries/1393… pic.twitter.com/ln72pXifIC 2021-08-26 20:58:52

                        「吉幾三を入れたら壊れた」「おおきなかぶは抜けなかった」東京大学発の企業が開発した「何でも3行で要約してくれるAI」がさっそくツイッタラーのおもちゃに成り果てる
                      • 冴えるヒロイン(ミライ小町)の制作事例を通じた、自然言語処理AIによるキャラクター性の抽出と反映【CEDEC2021】 | Gamer

                        本セッションに登壇したのは、バンダイナムコ研究所の技術開発本部先端技術部AI課に所属する頼 展韜氏と石原 健司氏。AIがいかにテキストでキャラクターの魅力を立たせるか、AIがどのようにセリフ制作現場をサポートするか、といった観点からセッションを進行していった。

                          冴えるヒロイン(ミライ小町)の制作事例を通じた、自然言語処理AIによるキャラクター性の抽出と反映【CEDEC2021】 | Gamer
                        • Google、Androidデバイス用機械学習プラットフォームを発表

                            Google、Androidデバイス用機械学習プラットフォームを発表
                          • Papers With CodeのDatasets: 人気度まで分かるデータセット一覧サイト

                            Papers With CodeのDatasets: 人気度まで分かるデータセット一覧サイト:AI・機械学習のデータセット辞典 データセットが効率よく見つけられるPapers With CodeのDatasetsを紹介。各データセットのページでは、データセット利用に向くタスクや、ベストな性能を発揮するモデル、コードありの論文、各ライブラリのデータローダー、データセットの人気傾向などを確認できる。 連載目次 最近、非常に有用な新しいデータセットの一覧サイトが登場したので紹介したい。 Papers With CodeのDatasetsとは? 「Papers With Code」というサイトをご存じだろうか? さまざまなタスク(例えば画像分類やテキスト生成など)に対して現時点でベストな性能を発揮する「機械学習モデル」や、スターの多い「コードあり論文」などをランキング形式で紹介してくれる、無料でオ

                              Papers With CodeのDatasets: 人気度まで分かるデータセット一覧サイト
                            • 世界の最大手企業は機械学習を活用したアプリケーションをどのように設計しているか | AI専門ニュースメディア AINOW

                              著者のDaniel Bourke氏はオーストラリア在住の機械学習エンジニアで、同氏が公開したさまざまな機械学習に関する記事はMediumでも人気があり、その一部はAINOWでも紹介してきました(同氏の詳細は公式サイトを参照)。同氏が最近Mediumに投稿した記事『世界の最大手企業は機械学習を活用したアプリケーションをどのように設計しているか』では、世界的な大手テック系企業が機械学習システムの設計に関して定めたガイドラインが解説されています。 機械学習を活用したアプリ開発がさかんになるにつれて、そのようなアプリ開発に対して同じようなアプローチが有効なことに気づかれるようになりました。そこでBourke氏は、機械学習を活用したアプリ開発に共通した設計指針を明らかにするために、Apple、Google、Microsoft、Facebook、そしてSpotifyの設計ガイドラインを調べてみました。

                                世界の最大手企業は機械学習を活用したアプリケーションをどのように設計しているか | AI専門ニュースメディア AINOW
                              • 月3000枚の墓石写真を自動で名前消し “AIに無関心”だった元石材屋の社員がエンジニアと業務AIを作るまでの一部始終

                                元石材屋の女性がIT企業に転職。エンジニアと協力してAIを開発し、墓石情報サイトの業務削減に成功する──Webサービスの開発を手掛けるエイチームライフスタイル(名古屋市)で実際にあった出来事だ。 キーパーソンは、同社で墓や葬儀に関する情報サイト「ライフドット」の運営に携わる小野寺智子さん(ライフエンディング事業部)。もともとは石材屋でチラシ作りなどの仕事をしており、AIには関心がなかったという。そんな小野寺さんがどういった経緯でAIによる業務削減を実現できたのか。そのきっかけは親会社であるエイチームがグループ全社で行った社内研修にあったという。 サイトに掲載する写真の加工作業に手間と時間が 小野寺さんは2年前の2019年、「もっとWebに携わる仕事がしたい」と考えエイチームライフスタイルに転職。務めていた石材屋がライフドットと提携していたこともあり、同サービスを運営する部署に配属された。

                                  月3000枚の墓石写真を自動で名前消し “AIに無関心”だった元石材屋の社員がエンジニアと業務AIを作るまでの一部始終
                                • 形態素解析の精度向上を頑張った話 - Leverages データ戦略ブログ

                                  はじめに こんにちは。データ戦略室データエンジニアリンググループの森下です。 普段はデータエンジニアとして、主にデータ活用基盤の保守運用や機能追加、ツール開発やデータ抽出・可視化といった業務を行っています。もともと機械学習への興味はありましたが、本記事の内容以前では、業務で使用したことはありませんでした。今回、初めて機械学習の業務を経験する事ができ、非常に多くのことを学ぶことができました。本記事は未経験者の奮闘記となりますので、これから機械学習を学ぶ方・業務に活かす方にとって参考になれば幸いです。 経緯について データエンジニアとしてデータ活用基盤の構築や保守運用をしていく中で、機械学習へのデータ活用は自然と考える部分です。しかし、書籍やチームの勉強会で機械学習について少しずつ学んではいるものの、業務で機械学習を使用したことはありませんでした。 そのような状況の中で、機械学習の業務に携わり

                                    形態素解析の精度向上を頑張った話 - Leverages データ戦略ブログ
                                  • ルールベース画像処理のススメ

                                    データ分析LT会第二回で発表した際の資料です。 youtube: https://www.youtube.com/watch?v=jDZwX3jxhK4 conppass url: https://kaggle-friends.connpass.com/event/214854/ github repository: https://github.com/fkubota/bunseki_compe_LT_02

                                      ルールベース画像処理のススメ
                                    • 機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine

                                      著者 鶴田 博文, 坪内 佑樹 所属 さくらインターネット株式会社 さくらインターネット研究所 研究会 第8回WebSystemArchitecture研究会 1. はじめに インターネットを介して利用するシステムの大規模化に伴い,システムの構成要素数の増大や,構成要素間の関係性の複雑化が進んでいる. そのため,システムの性能に異常が発生したときに,システムの状態を示す指標であるメトリックをシステム管理者が網羅的に目視することや,メトリック間の関係性を把握することができず,システムの異常原因を特定することが難しくなっている. この問題を解決するために,深層学習などの機械学習モデルを用いて,システムの異常の原因を診断する手法が提案されている[1,2]. これらの手法は,システム管理者が異常の根本原因を絞り込むために活用することが期待できる. しかし,原因診断を行うためには,事前に機械学習モデ

                                        機械学習モデルの局所的な解釈に着目したシステムにおける異常の原因診断手法の構想 - Fire Engine
                                      • 機械学習のパラメータチューニングを「これでもか!」というくらい丁寧に解説 - Qiita

                                        はじめに 私はこれまで機械学習のパラメータチューニングに関し、様々な書籍やサイトで学習を進めてきました。 しかしどれもテクニックの解説が主体のものが多く、 「なぜチューニングが必要なのか?」 という目的に関する記載が非常に少なかったため、体系的な理解に苦労しました。 この経験を後世に役立てられるよう、「初心者でも体系的に理解できる丁寧さ!」をモットーに記事にまとめたいと思います。 具体的には、 1. パラメータチューニングの目的 2. チューニングの手順とアルゴリズム一覧 3. Pythonでの実装手順 (SVMでの分類を例に) の手順で解説を進めます。 独自解釈も含まれるため、間違っている点等ございましたら指摘頂けると有難いです。 なお、文中のコードはこちらのGitHubにもアップロードしております。 2021/9/6追記:LightGBMのチューニング実行例追加 以下の記事に、Ligh

                                          機械学習のパラメータチューニングを「これでもか!」というくらい丁寧に解説 - Qiita
                                        • fkubota🦉 on Twitter: "相関係数だけで判断することは非常に危険というのは、以下の例がすごくわかりやすいです! 「アンスコムの例」と呼ばれる4つのデータセットがあります。 これ、4つとも平均、分散、相関係数がほぼ一致してるんですよね。 外れ値がいかに危険か… https://t.co/2RHm4FDXo8"

                                          相関係数だけで判断することは非常に危険というのは、以下の例がすごくわかりやすいです! 「アンスコムの例」と呼ばれる4つのデータセットがあります。 これ、4つとも平均、分散、相関係数がほぼ一致してるんですよね。 外れ値がいかに危険か… https://t.co/2RHm4FDXo8

                                            fkubota🦉 on Twitter: "相関係数だけで判断することは非常に危険というのは、以下の例がすごくわかりやすいです! 「アンスコムの例」と呼ばれる4つのデータセットがあります。 これ、4つとも平均、分散、相関係数がほぼ一致してるんですよね。 外れ値がいかに危険か… https://t.co/2RHm4FDXo8"
                                          • [速報]マイクロソフト、自然言語をプログラミング言語にAIで変換、新ノーコード機能をPower Appsに搭載。AI言語モデル「GPT-3」を採用。Microsoft Build 2021

                                            [速報]マイクロソフト、自然言語をプログラミング言語にAIで変換、新ノーコード機能をPower Appsに搭載。AI言語モデル「GPT-3」を採用。Microsoft Build 2021 マイクロソフトは、オンラインで開催中の開発者向け年次イベント「Microsoft Build 2021」で、ローコード/ノーコード開発ツール「Power Apps」に、英語で説明すると自動的にその機能をプログラミング言語の「Power Fx」に変換してくれる新機能の搭載を発表しました。 Power FxはExcelの数式をベースにしたプログラミング言語で、今年の3月に発表されたばかりです。 参考:Excelの数式をベースにしたプログラミング言語「Microsoft Power Fx」登場。オープンソースで公開予定。Microsoft Ignite 2021 これによりプログラミングせずに、Power A

                                              [速報]マイクロソフト、自然言語をプログラミング言語にAIで変換、新ノーコード機能をPower Appsに搭載。AI言語モデル「GPT-3」を採用。Microsoft Build 2021
                                            • AIの開発や本番環境への導入が少ないコードで簡単にできる「Vertex AI」がGoogle Cloudで一般提供開始、実際に使ってみた

                                              Googleがオンラインイベント「Google I/O 2021」の中で、AIの開発や運用を容易に行えるようにする機械学習プラットフォームの「Vertex AI」を発表しました。 Vertex Ai  |  Vertex AI  |  Google Cloud https://cloud.google.com/vertex-ai Google Cloud launches Vertex AI, unified platform for MLOps | Google Cloud Blog https://cloud.google.com/blog/products/ai-machine-learning/google-cloud-launches-vertex-ai-unified-platform-for-mlops Googleによると、Vertex AIを利用すると競合に比べて80%近

                                                AIの開発や本番環境への導入が少ないコードで簡単にできる「Vertex AI」がGoogle Cloudで一般提供開始、実際に使ってみた
                                              • IBM、ソフトウェア開発へのAI活用を促進する大規模データセット「Project CodeNet」を公開

                                                IBMは2021年5月11日(米国時間)、AIによるコードの理解と変換をサポートする大規模なオープンソースデータセット「Project CodeNet」を公開した。 このデータセットは、50以上のプログラミング言語で作成され、約1400万のコードサンプルで構成されている。コードの行数は総計約5億行に及び、AI向けのソースコードセットとして最大規模だという。C++やC、Java、Pythonのようなモダン言語で書かれたものが多いものの、COBOLやPascal、FORTRANといったレガシー言語によるものも含んでいる。 Project CodeNetの目的は? Project CodeNetは現在のコーディングにおける3つの主なユースケースに対応する。第一に「コード検索」(COBOLなどのレガシー言語を含む、コード間の自動変換)、第二に「コードの類似性」(異なるコード間の重複と類似性を特定す

                                                  IBM、ソフトウェア開発へのAI活用を促進する大規模データセット「Project CodeNet」を公開
                                                • 七声ニーナを支えるバックエンド技術 | BLOG - DeNA Engineering

                                                  データ統括部AI基盤部の竹村( @stakemura )です。本記事では、このたびリリースされた、自分の声をキャラクターの声に変換できるWebサービス VOICE AVATAR 七声ニーナ を支えるバックエンド技術についてお話しします。 本サービスはDelight Boardという部署横断型のプロジェクトにて、1000人を超える社員投票により自分の案がまさかの採択となったことがきっかけとなります。幸運にも、百戦錬磨のプロジェクトメンバーに助けられ今日のリリースを迎えましたが、採択当時は人脈も信用貯金も何もない入社一年目の思いつきにすぎず、言い出しっぺである自分の力不足によりタイトなスケジュールでの開発となってしまいました。本記事では、その限られた開発期間の中で、自分が何を考えて実装したかを中心にお伝えします。 サービングに求められる要件 七声ニーナの音声変換はブラウザから受け取った入力音声

                                                    七声ニーナを支えるバックエンド技術 | BLOG - DeNA Engineering
                                                  • 説明可能なAIに関する書籍の和訳プロジェクト完了のお知らせ - HACARUS INC.

                                                    こんにちは、HACARUSでデータサイエンティストをしている増井です。先日、Christoph Molnar氏の Interpretable Machine Learning というAIの解釈性に関するの教科書の和訳プロジェクトを進めていることをこちらのブログにて紹介させていただきました。 11月ごろから和訳活動を始めていたのですが、遂に全ての和訳の公開が完了しましたのでお知らせします。 この書籍は、CC BY-NC-SA 4.0 のライセンスで提供されており、原著、和訳ともに web上で全編無料で読むことができます。和訳版は以下の URL からご覧になれます。 https://hacarus.github.io/interpretable-ml-book-ja/ ちなみに、Google 検索で、”Interpretable ML 和訳” と調べていただいても、上位に表示されると思います。

                                                      説明可能なAIに関する書籍の和訳プロジェクト完了のお知らせ - HACARUS INC.
                                                    • ディープラーニングを活用したレコメンドエンジン改善への取り組み - ZOZO TECH BLOG

                                                      はじめに こんにちは、推薦基盤部の与謝です。ECサイトにおけるユーザの購買率向上を目指し、レコメンデーションエンジンを研究・開発しています。最近ではディープラーニングが様々な分野で飛躍的な成果を収め始めています。そのため、レコメンデーション分野でも研究が進み、精度向上に貢献し始めています。本記事では、ディープニューラルネットワーク時代のレコメンド技術について紹介します。 目次 はじめに 目次 パーソナライズレコメンドとは 深層学習より前の推薦手法 協調フィルタリング Matrix Factorization SVD(Singular Value Decomposition) Factorization Machine 深層学習を使った推薦手法 ニューラルネットワーク推薦手法に対する警鐘 Recboleプロジェクト Recboleプロジェクトを用いた各アルゴリズムの検証 General Re

                                                        ディープラーニングを活用したレコメンドエンジン改善への取り組み - ZOZO TECH BLOG
                                                      • 東芝、教師なしで画像をグループ化できるAI開発 精度は95.4%で世界最高級か | Ledge.ai

                                                        株式会社東芝は4月28日、製造現場向けに教師なし(分類基準のラベルづけ作業なし)で高精度に画像をグループ化できる画像分類AIを開発したと発表。一般画像の公開データ(※1)を分類したところ、分類精度が従来の71.0%から95.4%に改善し、世界トップレベルの性能を達成したとうたう。 (※1)ImageNet-10:AIの性能検証で使用される代表的なデータセット。犬や猫など10種類の対象を含む一般画像を指す。 東芝は本AIを製造現場で製品の外観画像を分類することで、不良や欠陥の発生状況を早期に把握する外観検査向けに開発した。AIで外観画像を分類する手法には、事前に分類基準を人手でラベル付けする「教師あり学習」と、分類基準の設定や教示用のデータを必要としない「教師なし学習」がある。東芝によると、製造現場における外観検査では分類基準を学習するための人手作業が不要で、導入・運用コストが低い「教師なし

                                                          東芝、教師なしで画像をグループ化できるAI開発 精度は95.4%で世界最高級か | Ledge.ai
                                                        • 教師なし学習でも「世界最高クラス」の精度で不良品を見分ける画像分類AI

                                                          東芝は2021年4月28日、教師なし学習でも高精度でグループ化できる画像分類AI(人工知能)を開発したと発表。ラベル付け作業を行っていない画像データから、高精度に不良品や製品欠陥を検出することが可能になる。 東芝は2021年4月28日、教師なし学習でも高精度でグループ化できる画像分類AI(人工知能)を開発したと発表した。ラベル付け作業を行っていない画像データから、高精度に不良品や製品欠陥を検出することが可能になる。 教師なし学習の分類精度向上に貢献 今回東芝が発表した画像分類AIは、分類基準を指定するラベル付けを行っていない画像から有効な特徴を抽出、学習して、それに基づいた画像分類を高精度で実行するものである。 この画像分類AIは、1枚の画像を1つの分類基準とする「疑似的な教師あり学習」を行う。これによって背景のように多くの画像に表れるものを除き、一部の画像にだけ存在する特徴を抽出できる。

                                                            教師なし学習でも「世界最高クラス」の精度で不良品を見分ける画像分類AI
                                                          • Netflixの屋台骨 「AIレコメンド」技術最前線 - 日本経済新聞

                                                            ネットショッピングやコンテンツの視聴――。人工知能(AI)で好みの製品を推薦する「レコメンドシステム」は、いまやネットサービスに欠かせない存在だ。その精度は企業の競争力を左右する。米ネットフリックスや米ウーバーテクノロジーズなど主要企業の取り組みをCBインサイツがまとめた。小売りやメディア各社はどんな商品やコンテンツがユーザーに響くかを予測する「レコメンドシステム」を活用し、売り上げを伸ばしてい

                                                              Netflixの屋台骨 「AIレコメンド」技術最前線 - 日本経済新聞
                                                            • [文章生成]パープレキシティーとドロップアウトにより、よりよい文章生成を目指してみよう

                                                              今回の目的 前回はPyTorchのRNNクラスを使って、梶井基次郎の小説データを基に文章生成を行いました。できあがったニューラルネットワークモデルは、「檸檬」を与えると「檸檬などごくありふれている」という文を頻繁に生成するようなものとなっていました。恐らくは訓練データに過剰に適合した(過学習をした)ことにより、このようなモデルになってしまったのでしょう。 そこで、今回はパープレキシティーという損失とは別の指標を導入して、前回のニューラルネットワークモデルがどんなものだったかを観察した後、過学習を避ける仕組みを導入します。果たして、これにより前回よりもよい精度で文を生成できるようになるのでしょうか。 なお、分かち書きされたデータから辞書やデータセット/データローダーを作成するコードなどは前回までに見てきたものと同様なので、本稿ではそれらについては紹介しません。ここでは、前回までのコードに少し

                                                                [文章生成]パープレキシティーとドロップアウトにより、よりよい文章生成を目指してみよう
                                                              • 【日本語モデル付き】2021年に自然言語処理をする人にお勧めしたい事前学習済みモデル - Qiita

                                                                要点 T5(Text-To-Text Transfer Transformer、論文、日本語解説記事)の日本語モデル(事前学習済みモデル)を作り、公開しました。ご活用ください。 T5とは、様々な自然言語処理タスクの入出力がともにテキストになるよう問題形式を再定義することにより、一つの事前学習済みモデルを多様なタスク用に転移学習させることができる高い柔軟性を持ち、かつ、性能も優れている深層ニューラルネットワークです。 転移学習の例: 文章分類、文章要約、質問応答、対話応答、機械翻訳、含意関係認識、文の類似度計算、文法的妥当性判定、タイトル生成、スタイル変換、誤字修正、検索結果のリランキングなど(固有表現抽出などのシーケンスラベリングの実施例はない?) 日本語T5モデルはHugging Face Model Hubからダウンロードできます。 ベンチマークとして、ある分類問題について、既存のmT

                                                                  【日本語モデル付き】2021年に自然言語処理をする人にお勧めしたい事前学習済みモデル - Qiita
                                                                • 朝日新聞社、長文を要約するAPIを無償公開 500字→200字に圧縮、重要事項の自動抽出も

                                                                  朝日新聞社は4月2日、指定した字数や割合に長文を要約する「長文要約生成API」を開発したと発表した。評価用途に限り、無償で利用できる。会議の議事録や、採用活動で受け付けるエントリーシートの速読などに役立てられるという。

                                                                    朝日新聞社、長文を要約するAPIを無償公開 500字→200字に圧縮、重要事項の自動抽出も
                                                                  • StyleGAN2で属性を指定して顔画像を生成する - すぎゃーんメモ

                                                                    memo.sugyan.com の記事の続き(?)。 ある程度の学習データを収集して学習させたモデルが出来たので、それを使って実際に色々やってみる。 StyleGAN2-ADA 学習 mapping出力と生成画像 生成画像の属性推定結果から潜在空間の偏りを抽出 表情推定 顔姿勢推定 髪領域推定 (顔解析) 年齢 (上手くいかず) 複合 Repository StyleGAN2-ADA 前回の記事でも書いたけど、厳選した16,000枚の画像を使って StyleGAN2-ADA を使って生成モデルを学習させてみた。 github.com これは StyleGAN2 から進化したもので、より少ない枚数からでも安定して学習が成功するようになっていて、さらにparameter数など調整されて学習や推論もより早くなっている、とのこと。 それまでのStyleGANシリーズはTensorFlowで実装され

                                                                      StyleGAN2で属性を指定して顔画像を生成する - すぎゃーんメモ
                                                                    • データサイエンティストの終わりなき戦い - Qiita

                                                                      はじめに 筆者はかつてデータサイエンティストだった者です。 統計や機械学習をバリバリ使いこなしてデータを分析し、将来の売り上げ予測や要因分析、施策の効果検証などをすることに憧れてこの世界に入りましたが、そうした時間は全体の1割ほどに過ぎず、残り9割の時間の戦いに疲れて戦場を後にしました。 なぜデータサイエンティストは戦わなければならないのだろう。 おそらく一因としてあるのが、データサイエンティストという言葉がバズワード化しすぎてしまったせいで、その定義の輪郭が失われてしまったことだと思います。 整理された定義は、言わずと知れた尾崎隆さんのデータサイエンティスト・機械学習エンジニア・データアーキテクトの定義とスキル要件(2021年版)に記載されています。 しかし、専門家でも意見が別れる定義を素人がはっきりと分かるはずもなく、過度な期待が寄せられることで討死してしまうデータサイエンティストが少

                                                                        データサイエンティストの終わりなき戦い - Qiita
                                                                      • 〜AutoMLで実践する〜 ビジネスユーザーのための機械学習入門シリーズ 【第 3 回】 「積ん読」と「体重増」の悩みを AutoML で解決しよう | Google Cloud 公式ブログ

                                                                        〜AutoMLで実践する〜 ビジネスユーザーのための機械学習入門シリーズ 【第 3 回】 「積ん読」と「体重増」の悩みを AutoML で解決しよう 前回は、AutoML Tables による EC サイトの LTV 分析事例を紹介しました。今回は、同じ AutoML Tables を、より身近な課題の解決に使う方法を紹介します。 その課題とは、筆者自身が抱えていた 2 つの悩みです。ひとつは、スキャンして PDF で保管している書籍の「積ん読」を大量に抱えていたこと。もうひとつは、自宅作業ばかりで増え続けてしまっている体重です。 この 2 つの課題を一挙に解決するソリューションとして筆者が思いついたのが、「PDF 書籍をオーディオブックに変換する」という方法です。読みたかった書籍をオーディオブック化しておけば、ランニングしながら積ん読を解消できます。 この動画のように、Cloud Sto

                                                                          〜AutoMLで実践する〜 ビジネスユーザーのための機械学習入門シリーズ 【第 3 回】 「積ん読」と「体重増」の悩みを AutoML で解決しよう | Google Cloud 公式ブログ
                                                                        • GiNZAと患者表現辞書を使って患者テキストの表記ゆれを吸収した意味構造検索を試した - エムスリーテックブログ

                                                                          エムスリーエンジニアリンググループ AI・機械学習チームの中村(@po3rin) です。 好きな言語はGo。仕事では主に検索周りを担当しています。 最近「医療言語処理」という本を読んで、医療用語の表記ゆれ吸収や意味構造検索などについて学びました。 医療言語処理 (自然言語処理シリーズ) 作者:荒牧 英治発売日: 2017/08/01メディア: 単行本 そこで今回はElasticsearchと患者表現辞書を使った意味構造検索がどのくらい実戦投入できるかを簡単に試したので、概要と実装方法を簡単にご紹介します。 患者テキストの表記ゆれ 患者テキストの表記ゆれとは MEDNLPの患者表現辞書 トークンによる検索の課題と対策の検討 主語が違うのにヒットしちゃう? 意味構造検索 係り受け解析と患者表現辞書を使った意味構造検索の実装 患者表現辞書を使った係り受け解析 患者表現辞書の表現をクエリに展開する

                                                                            GiNZAと患者表現辞書を使って患者テキストの表記ゆれを吸収した意味構造検索を試した - エムスリーテックブログ
                                                                          • [文章生成]マルコフ連鎖で文を生成してみよう

                                                                            今回の目的 前回までに青空文庫から梶井基次郎の著作をダウンロードしたり、形態素解析を行うためにMeCabをインストールしたりしてきました。今回は、いよいよこのデータを使って文章を生成してみます。といっても、まだディープラーニングの分野には踏み込むことはしません。ここでは「マルコフ連鎖」と呼ばれる手法を使って、文章を生成してみるだけです。 実際にはこんな文章が生成されました。 そして私は友の反省の為の金を貸してくれました。 何しろ俺は大嫌いなんだよ。 あの窓の外で、孫にあたる人間を集めてゐた。 一台の赤い実が目にも堪えることのない、早く返事をしながら涙をためた。 正直なところ、「うーむ」という文章も多いのですが、失敗も含めてやってみることが大事です(生成されたものが短文であれば、日本語としても解釈できるものもありますが、長文になると意味不明なものにしかなりませんでした)。 文章を生成するだけ

                                                                              [文章生成]マルコフ連鎖で文を生成してみよう
                                                                            • [AI・機械学習の数学]確率分布の基本、ベルヌーイ分布、二項分布を理解する

                                                                              連載目次 前回までは、特定の事象(できごと)が起こる確率の取り扱いやベイズの定理などについて見てきました。ここからは「確率分布」について見ていきます。 確率分布とは、全ての事象に対する確率を洗い出して、それらの事象がどのような確率で起こるかを表したもの……いわば全体像を表したものと考えていいでしょう。といっても、抽象的すぎて何のことか分からないかもしれませんね。しかし、具体例を見れば「なんだそんなことか」と簡単に分かる話です。 ここでは「分布」とはそもそもどういうものか、ということから始め、今回は離散分布の例としてベルヌーイ分布と二項分布を、次回は連続分布の例として正規分布とベータ分布を紹介します。併せて次回、ごく簡単にではありますが、事前分布や事後分布など、ベイズ統計に関する話題についても触れます。具体的には、今回と次回で以下のようなトピックを扱います。

                                                                                [AI・機械学習の数学]確率分布の基本、ベルヌーイ分布、二項分布を理解する
                                                                              • Yahoo!ニュースの「コメント機能」 AIを活用した投稿時注意メッセージ掲出の効果について

                                                                                いつもYahoo!ニュースをご利用いただきありがとうございます。 これまでYahoo!ニュースでは、人とAIによる不適切投稿の監視や、AIによるコメント表示順の改善など、コメント欄の場の健全化に取り組んできました。 これらに加え、2020年は不適切投稿の事前抑止に注力し、7月に以下の取り組みを開始しました。 AIを活用した投稿時注意メッセージの掲出を開始しました これは不適切投稿のパトロールで活用しているAI判定モデルを用いて、不適切な可能性が高いと判定されたコメントを数日以内に複数回投稿しているユーザーに対し、注意メッセージを掲出するものです。 直近の投稿傾向から、不適切なコメントを投稿するおそれのあるユーザーを判断して注意メッセージを掲出することで、過去の投稿内容やこれから投稿するコメントに乱暴な言葉づかいや他の人を傷つける表現がないかなど、改めて考えるきっかけにしていただくことが目的

                                                                                  Yahoo!ニュースの「コメント機能」 AIを活用した投稿時注意メッセージ掲出の効果について
                                                                                • バッチ正規化を使用しない新たなチャンピオンNFNetsが登場!画像タスクトップの性能!

                                                                                  3つの要点 ✔️ 新しいadaptive gradient clipping法を用いたバッチ正規化の代替 ✔️ 正規化なしアーキテクチャNFNetsがSOTAを達成 ✔️ バッチ正規化を用いたモデルよりも、優れた学習速度と伝達学習能力を持つ High-Performance Large-Scale Image Recognition Without Normalization written by Andrew Brock, Soham De, Samuel L. Smith, Karen Simonyan (Submitted on 11 Feb 2021) Comments: Accepted to arXiv. Subjects: Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG); Ma

                                                                                    バッチ正規化を使用しない新たなチャンピオンNFNetsが登場!画像タスクトップの性能!