並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 499件

新着順 人気順

lstmの検索結果81 - 120 件 / 499件

  • 75. GitHub Copilotの裏側 と 難解なテーマをわかりやすく説明する方法 w/ AIcia_Solid | fukabori.fm

    MP3ファイルをダウンロード 内容紹介 GitHub Copilotの裏側、GPT、GPT-3、Scaling Law、Multi-head Attention、難解なトピックをわかりやすくする説明する方法などについて語っていただいたエピソードです。 出演者 GitHub Copilotの裏側、GPT、GPT-3、Scaling Law、Multi-head Attention、難解なトピックをわかりやすくする説明する方法などについて語っていただいたエピソードです。 話したネタ AIcia Solid Project GitHub Copilot とは?(補足: 本ep公開時点でGA) GitHub Copilot の裏側で何が動いているのか? GPT(Generative Pre-trained Transformer) とは何か? 言語モデルのパラメータとは? パラメータって GPT

      75. GitHub Copilotの裏側 と 難解なテーマをわかりやすく説明する方法 w/ AIcia_Solid | fukabori.fm
    • コンピュータビジョン分野における世界最高峰の国際会議CVPR2022の論文紹介(後編) - NTT Communications Engineers' Blog

      目次 目次 はじめに 論文紹介 The Norm Must Go On: Dynamic Unsupervised Domain Adaptation by Normalization OcclusionFusion: Occlusion-aware Motion Estimation for Real-time Dynamic 3D Reconstruction EPro-PnP: Generalized End-to-End Probabilistic Perspective-N-Points for Monocular Object Pose Estimation Cascade Transformers for End-to-End Person Search TrackFormer: Multi-Object Tracking With Transformers Global T

        コンピュータビジョン分野における世界最高峰の国際会議CVPR2022の論文紹介(後編) - NTT Communications Engineers' Blog
      • 最新の深層学習技術による古典くずし字認識の現状と今後の展望 - May the Neural Networks be with you

        こんにちは。@shunk031 です。 普段は最先端の技術が大好きなパソコンのオタクですが、京都へ旅行して古き良き日本の文化に感化されました。 この記事は 法政大応情 Advent Calendar 2020 21 日目の記事です。 From http://codh.rois.ac.jp/ 今回は日本古典籍の分類タスクについて取り組んでみようと考え、近年の日本古典籍における「くずし字認識」に着目して調査をしました *1。 日本古典籍といった古文書に対して、OCR 等の文字認識技術によって文字情報をデジタル化し、それらの情報をもとに解析を行う流れは現代では自然だと考えています。 しかしながら、一般的に OCR は難しく、また古文書を機械に解析させることはさらなる困難があるのは容易に想像できます。 くずし字認識に対して、近年の取り組みでは ROIS-DS 人文学オープンデータ協働センターが K

          最新の深層学習技術による古典くずし字認識の現状と今後の展望 - May the Neural Networks be with you
        • VAEに基づく「AI耳コピ」手法 - Qiita

          しばらく前にオンライン開催された「OngaACCELシンポジウム2020」にて、吉井和佳先生による自動採譜技術研究の発表がありました。たいへんありがたいことに、あの藤本健さんの記事でピックアップしていただき、なかなか反響があったようです。 音を楽譜にする“耳コピ”はここまで来た。AI自動採譜の最前線 この記事で紹介されている成果のうち、しゃをみんはコード採譜の研究に取り組んでおります。吉井先生の発表の中で、「ミラーニューロン仮説」なる概念が紹介されたあのパートです。 「生成モデル+推論モデル=VAE」でなんかぐるぐるさせるという話をしていましたね。本記事ではこの研究成果をざっくり解説するとともに、「AI自動採譜」研究の現在地を自分なりに整理してみたいと思います。 研究内容はIEEE TASLPに掲載されています。引用してください。 Semi-supervised Neural Chord

            VAEに基づく「AI耳コピ」手法 - Qiita
          • 統計学×機械学習で株予測「MegazordNet」

            3つの要点 ✔️ 統計学×機械学習で株予測の精度向上! ✔️ 従来の統計的およびMLベースのアルゴリズムより高精度 ✔️ 株予測の可能性を広げる MegazordNet: combining statistical and machine learning standpoints for time series forecasting written by Ilya Tolstikhin, Neil Houlsby, Alexander Kolesnikov, Lucas Beyer, Xiaohua Zhai, Thomas Unterthiner, Jessica Yung, Andreas Steiner, Daniel Keysers, Jakob Uszkoreit, Mario Lucic, Alexey Dosovitskiy (Submitted on 23 Jun 202

              統計学×機械学習で株予測「MegazordNet」
            • 深層学習系のトップ会議ICLR2020のNLP系論文についてざっくり紹介 - 株式会社ホクソエムのブログ

              ホクソエムサポーターの白井です。今回はICLR2020 の論文を紹介します。 The International Conference on Learning Representations (ICLR) は機械学習の中でも特に深層学習 を専門とした国際会議です。 OpenReview.net によるopen peer reviewを採用しているので、submitされた論文はだれでも閲覧可能です。(ICLR2020 open review) 2020年はエチオピアで開催予定でしたが、COVID-19の影響でvirtual conferenceとなりました。 今回はNLP系の論文について5本紹介します。 すでに日本語ブログ記事で紹介されているような論文もありますが、自分が興味を持った部分を中心としてざっくりと紹介したいと思います。 以降、とくに記載がない場合、図は論文またはブログからの引用で

                深層学習系のトップ会議ICLR2020のNLP系論文についてざっくり紹介 - 株式会社ホクソエムのブログ
              • 機械学習を仕事に使うには? 01_機械学習の目的を理解する - Qiita

                皆さんこんにちは。 本日からQiitaをはじめました。 普段は機械学習エンジニアとして、AI開発やWebアプリケーション開発に関わっています。 プライベートでは新米パパになりました。 4ヵ月になる長男を抱っこしながら記事を書いています(笑) 記事を書くキッカケとして、まだ参考書がなかった2017年から機械学習に取り組んできましたが、 地道に苦労して機械学習を習得した経験は必ず誰かの役に立つと感じています。 そこで、キャリアアップを目指す人達をサポートできる記事を書こうと決めました。 記念すべき初投稿のテーマは『機械学習は何のために作られたのか?』です。 どんなに良い参考書を読んでも、機械学習の目的が分かっていないと何も習得できないと思います。 まずは全ての基礎となる全体像を理解していきましょう。 SNS でも色々な情報を発信しているので、記事を読んで良いなと感じて頂けたら Twitterア

                  機械学習を仕事に使うには? 01_機械学習の目的を理解する - Qiita
                • Text Classification: All Tips and Tricks from 5 Kaggle Competitions

                  In this article, I will discuss some great tips and tricks to improve the performance of your text classification model. These tricks are obtained from solutions of some of Kaggle’s top NLP competitions. Namely, I’ve gone through: Jigsaw Unintended Bias in Toxicity Classification – $65,000 Toxic Comment Classification Challenge – $35,000 Quora Insincere Questions Classification – $25,000 Google QU

                    Text Classification: All Tips and Tricks from 5 Kaggle Competitions
                  • 系列ラベリングによる NPS コメントのポジティブ・ネガティブ部分の抽出 - クックパッド開発者ブログ

                    こんにちは。研究開発部の深澤(@fukkaa1225)と申します。 クックパッドでは、顧客のロイヤルティを測る指標であるNPS(ネットプロモータースコア)のアンケートを毎月実施しています。 このNPSアンケートで集まってきたユーザの声(フリーコメント)は、クックパッドにとって大変貴重なものです。しかし、毎月多くの声が届くこともあり、担当者だけで目を通して集計するというのは難しくなってきました。そこで昨年、予め定義したカテゴリにコメントを自動で分類するシステムを構築し、既に稼働させています。 NPSアンケートを自動分類した話 - クックパッド開発者ブログ このシステムによって「いただいたコメントが何を話題にしているか」はある程度自動的に把握できるようになりました。次に課題となったのは、例えば「このコメントはレシピの多さに関するものである。でもその中にはポジティブな部分とネガティブな部分が混じ

                      系列ラベリングによる NPS コメントのポジティブ・ネガティブ部分の抽出 - クックパッド開発者ブログ
                    • 『グラフニューラルネットワーク』を上梓しました - ジョイジョイジョイ

                      グラフニューラルネットワーク (機械学習プロフェッショナルシリーズ) 作者:佐藤 竜馬講談社Amazon 講談社より『グラフニューラルネットワーク(機械学習プロフェッショナルシリーズ)』を上梓しました。 グラフニューラルネットワークはグラフデータのためのニューラルネットワークです。化合物やソーシャルネットワークのようなグラフデータの解析に使うことができます。また後で述べるように、テキストも画像もグラフなのでテキストや画像の分析にも使えますし、それらを組み合わせたマルチモーダルなデータにも適用できます。要は何にでも使うことができます。この汎用性がグラフニューラルネットワークの大きな強みです。 本稿ではグラフニューラルネットワークを学ぶモチベーションと、本書でこだわったポイントをご紹介します。 グラフニューラルネットワークは何にでも使える 付加情報をグラフとして表現できる グラフニューラルネッ

                        『グラフニューラルネットワーク』を上梓しました - ジョイジョイジョイ
                      • TensorFlowとPyTorchの相互変換はどうやるか 機械学習の困りごとに使える重み変換のテクニック

                        「分析コンペLT会」は、KaggleやSIGNATEなど、データ分析のコンペに関連するLT(ライトニングトーク)を行う会です。rishigami氏は、TensorFlow/PyTorchのモデル移植について発表しました。全2回。前半は、TensorFlow、PyTorchそれぞれのモデル実装の基礎と、それぞれの違い、重み変換のテクニックについて。 フレームワークにまつわる、ありがちな困りごと 石上氏:今回は「TensorFlow/PyTorchモデル移植のススメ」というタイトルで発表します。 あらためて自己紹介ですが、私は石上と申します。ハンドルネームは「rishigami」でやっていて、Kaggleでは現在Competitions Masterとなっています。ただ最近はちょっと忙しくて、Kaggleに参加できておらず、つい最近NFLコンペが開催された(※取材当時)ということで、ちょっとそ

                          TensorFlowとPyTorchの相互変換はどうやるか 機械学習の困りごとに使える重み変換のテクニック
                        • GitHub、機械学習を用いてソースコードから言語を検出/分類するツール「OctoLingua」を開発

                          GitHubは2019年7月2日(米国時間)、GitHubで管理されているソースコードがどのようなプログラミング言語で記述されているのかを特定するツール「OctoLingua」を開発したと発表。同ツールに関する今後の計画も明らかにした。 GitHub上で最も人気のある上位の5言語はJavaScript、Java、HTML、Python、PHPだが、ホストしているソースコードは300種類以上のプログラミング言語にわたるという。GitHubにとって、リポジトリにコードがプッシュされた際にその種類を認識することが重要だという。検索やセキュリティ脆弱(ぜいじゃく)性アラート、構文のハイライト表示といった観点があるからだ。 だが「.h」のように1つのファイル拡張子が複数のプログラミング言語で利用されている場合や、その逆の場合も珍しくない。さらにはプログラマーが誤った拡張子を付ける場合もある。 なぜ新

                            GitHub、機械学習を用いてソースコードから言語を検出/分類するツール「OctoLingua」を開発
                          • 深層学習を用いて音源を分離する––LINE Research Labsが研究成果を解説

                            2019年7月5日、LINE株式会社が主催するAI技術者向けの勉強会「LINE AI Talk #02」が開催されました。第2回となる今回のテーマは「信号処理」。AI関連技術を活用したさまざまなサービスを開発しているLINEの取り組みだけでなく、この分野の第一人者をゲストスピーカーに招き、最新の知見を学びます。プレゼンテーション「深層学習を用いた複数マイクロホンの音源分離」に登壇したのは、LINE株式会社Research Labsに所属し、工学博士でもある戸上真人氏。深層学習を用いた音源分離の取り組みと、その仕組みを解説します。講演資料はこちら 深層学習を用いた複数マイクロホンの音源分離 戸上真人氏(以下、戸上):それではLINEから、音の技術の研究と、この分野の動向についてお話したいと思います。 簡単に自己紹介ですが、私はLINEのResearch Labsに2018年の6月から研究員と

                              深層学習を用いて音源を分離する––LINE Research Labsが研究成果を解説
                            • 【ネットワークの統計解析】第5回 代表的なネットワークのモデルを俯瞰する (3) - Sansan Tech Blog

                              こんにちは. Sansan DSOC 研究開発部の黒木裕鷹です. 2回目の緊急事態が宣言され,昇降デスクを買ったりモニターや服を買い足したりしていました. お財布は寂しいですが,在宅戦闘力が高まりなんだか良い気分です. さて,この連載では,自分の勉強・復習も兼ねて,ネットワークデータにまつわる統計解析を気の向くままに紹介しています. 前回の記事では,DeepWalkやnode2vecをはじめとするnode embeddingの手法を浅く広く紹介しました. 今回は,ネットワークデータに対する深層学習 (Graph Neural Network; GNN) を俯瞰していきます. 数式は可能な限り使わず,直感的に全体像を把握する助けとなれば良いなと思っています. それではやっていきます. はじめに ノード単位のタスクとグラフ単位のタスク グラフフィルタ spectral-based グラフフィル

                                【ネットワークの統計解析】第5回 代表的なネットワークのモデルを俯瞰する (3) - Sansan Tech Blog
                              • ブログを始めて2年経った話。 - sun_ek2の雑記。

                                目次。 目次。 はじめに。 ブログの諸統計。 ページビュー数(PV数)…31,025PV。 ブログ収益…4,686円。 ページビュー数(PV数)上位ランキング。 5位(歴代8位)証券会社に自動で株式の売買注文をするプログラムを書いた話と今後の話。 4位(歴代6位)エルヴィン・シュレーディンガー博士「生命とは何か」を読んだ話。 3位(歴代5位)【株式自動売買×ディープラーニング】LSTMで日経平均株価予測を行うプログラムを書いてみた話。 2位(歴代4位)学振焼肉じゃなくて、年越しうどんじゃなくて、学振うどんな話。 1位(歴代2位)自動株式売買プログラム開発を思い立った話。 歴代3位と歴代1位は…。 歴代3位 VAIO A12 (ALL BLACK EDITION)を買った話。 歴代1位 IELTSでOverall 7.0を取った話。 ページビュー数(PV数)下位ランキング。 3位 論文版はて

                                  ブログを始めて2年経った話。 - sun_ek2の雑記。
                                • 詳説 Deep Learning

                                  エンタープライズ向けのディープラーニングの解説書。企業でディープラーニングアプリケーションを開発、運用するための実践的な手法を紹介します。対象読者はソフトウェア開発の現場で活躍する実務者。前半はディープラーニング初心者、後半はJavaエンジニア向けの構成です。機械学習、ニューラルネットワークの基礎から始め、ディープラーニングの基本的な概念、実際にチューニングを行う際のベストプラクティス、データのETL(抽出・変換・ロード)の方法、Apache Sparkを用いた並列化について、JavaライブラリDeep Learning4J(DL4J)の開発者でもある著者がわかりやすく丁寧に解説します。 日本のAIコミュニティの方々へ 監訳者まえがき まえがき 1章 機械学習の概要 1.1 学習する機械 1.1.1 機械が学習するには 1.1.2 生物学というヒント 1.1.3 ディープラーニングとは 1

                                    詳説 Deep Learning
                                  • テキストデータのかさましを実装する - 一休.com Developers Blog

                                    はじめに データサイエンス部の平田です。 ディープラーニングのモデルを作る際、学習データが少ないことが原因で精度が上がらない場合、データのかさまし(augmentation)を行うことがあります。 画像の場合は、オリジナルに対して回転させたりノイズを少し加えることで同じラベル付けがされている別の画像を作り出すことができ、それを学習データに加えることで頑健なモデルになります。 ただし、テキストの場合は回転させると意味不明になるのでどういう操作をしてかさましするかというのを考える必要があります。 そこで、EDA(Easy Data Augmentation)というものが考案されました。参考 Synonym Replacement:文中の単語の内n個、同義語に置き換える Random Insertion:文中の単語をランダムに選んで同義語にしてランダムな場所にinsert、n回繰り返す Rand

                                      テキストデータのかさましを実装する - 一休.com Developers Blog
                                    • Web Neural Network API

                                      Web Neural Network API W3C Candidate Recommendation Draft, 5 May 2024 More details about this document This version: https://www.w3.org/TR/2024/CRD-webnn-20240505/ Latest published version: https://www.w3.org/TR/webnn/ Editor's Draft: https://webmachinelearning.github.io/webnn/ Previous Versions: https://www.w3.org/TR/2024/CRD-webnn-20240503/ History: https://www.w3.org/standards/history/webnn/ Im

                                      • Annotated Research Paper Implementations: Transformers, StyleGAN, Stable Diffusion, DDPM/DDIM, LayerNorm, Nucleus Sampling and more

                                        This is a collection of simple PyTorch implementations of neural networks and related algorithms. These implementations are documented with explanations, and the website renders these as side-by-side formatted notes. We believe these would help you understand these algorithms better. We are actively maintaining this repo and adding new implementations. for updates. Translations English (original)

                                          Annotated Research Paper Implementations: Transformers, StyleGAN, Stable Diffusion, DDPM/DDIM, LayerNorm, Nucleus Sampling and more
                                        • 自然言語処理(NER, RE)を使ってニュースデータから知識グラフを構築してみました - GMOインターネットグループ グループ研究開発本部

                                          2022.04.07 自然言語処理(NER, RE)を使ってニュースデータから知識グラフを構築してみました はじめに こんにちは、次世代システム研究室のC.Wです。 知識グラフは近年流行始めた概念で、お恥ずかしいのですが今年に入ってから知識グラフの概念を知りました。その思想を分かればわかるほど高い興味が湧いていきて、これこそがデータの最終的な形式ではないのかと思い始めています。 ただ構築しやすくないのが知識グラフの問題であって、自然言語処理を使って一発の自動作成ができるとすごく嬉しいと思ったので今回のテーマを研究しました。それでは始めましょう。 TL;DR ニュースデータからグラフDBに落とすまでを一通り試して、結果は微妙だった 自然言語処理の結果がグラフの意義性を左右している (言ってみれば当たり前のことです!) 知識グラフの概要 知識グラフとは、グラフ構造のデータモデルまたはトポロジを

                                          • 分散密ベクトル探索エンジンValdとSentence-BERTを使った類似文書検索を試す - エムスリーテックブログ

                                            エムスリーエンジニアリンググループ AI・機械学習チームでソフトウェアエンジニアをしている中村(@po3rin) です。 好きな言語はGo。仕事では主に検索周りを担当しています。 Overview 最近、社内で情報検索論文輪読会を立ち上げました。 情報検索論文読み会のスケジュール そこでNGT-ONNGについての論文*1を紹介したところ1時間の予定のところを盛り上がりすぎて2時間超えてしまいました。 大盛り上がりのついでに、今回は情報検索論文輪読会で紹介した近似最近傍探索ライブラリNGTを内部で利用するValdを使って、類似文書検索がどのように出来るのか、現状の問題を解決できるのかを試したのでその結果を報告します。 Overview 弊社が抱える類似文書検索の課題 Sentence-BERT Valdを使った近似最近傍探索 NGT Vald Vald×Sententce-BERTで類似文書

                                              分散密ベクトル探索エンジンValdとSentence-BERTを使った類似文書検索を試す - エムスリーテックブログ
                                            • 投資家用・スタートアップ支援用・大学支援用に改良中 更新中)tfidf etc embeddings cluster reconstructing vis: 特許など長文の、動的な文章間類似俯瞰図可視化・迅速閲覧・解析・探索手段。および第三の特許検索手法、動的な知識抽出管理手法、特許自動生成 (類似度ベクトルと小規模言語モデル及びChatGPTを用いた空白領域における特許生成追加) - Qiita

                                              投資家用・スタートアップ支援用・大学支援用に改良中 更新中)tfidf etc embeddings cluster reconstructing vis: 特許など長文の、動的な文章間類似俯瞰図可視化・迅速閲覧・解析・探索手段。および第三の特許検索手法、動的な知識抽出管理手法、特許自動生成 (類似度ベクトルと小規模言語モデル及びChatGPTを用いた空白領域における特許生成追加)自然言語処理NLP可視化Visualization特許 追記を繰り返しており整合性も取れておらず非常に読みにくい状態です.近日中に再整理します. 技術だけではなく方法論が重要となります。後ろ向きに検証し、前向きに予測することが重要となるでしょう。現在検証中です。 お題をいただけますと助かります。後ろ向き検証ではどうもわかりきったものを恣意的に選んで言えるかもしれない危惧があるところです。 個人的には、会社の方針に

                                                投資家用・スタートアップ支援用・大学支援用に改良中 更新中)tfidf etc embeddings cluster reconstructing vis: 特許など長文の、動的な文章間類似俯瞰図可視化・迅速閲覧・解析・探索手段。および第三の特許検索手法、動的な知識抽出管理手法、特許自動生成 (類似度ベクトルと小規模言語モデル及びChatGPTを用いた空白領域における特許生成追加) - Qiita
                                              • 2019年はBERTとTransformerの年だった | AI専門ニュースメディア AINOW

                                                著者のManu Suryavansh氏は機械学習エンジニアとしてキャリアを積んだ後、2020年1月からAppleでデータサイエンティストとして勤めています。同氏がMediumに投稿した記事『2019年はBERTとTransformerの年だった』では、近年の自然言語処理の動向がBERTを中心軸としてまとめられています。 TransformerとBERTが発表される以前の自然言語処理モデルでは、時系列データを処理するRNNとその発展形であるLSTMが使われてきました。このLSTMには、構造が複雑になってしまうという欠点がありました。こうしたなか、2017年6月に発表された論文「Attentionこそ必要なすべてのもの」で論じられた言語モデルTransformerとAttentionと呼ばれる手法は、LSTMのような複雑な構造を使わずに高性能を実現したのでその後の言語モデル開発に大きな影響を与

                                                  2019年はBERTとTransformerの年だった | AI専門ニュースメディア AINOW
                                                • LinkedInが開発した時系列モデル“Greykite”の理論と実装 - ぱぐみの部屋

                                                  時系列データのモデリングとして、以下のような手法がメジャーかなと思います。 ARIMA Prophet 状態空間モデル RNN LSTM DeepAR 今回は、2021年に発表された比較的新しい手法であるGreykiteのご紹介をしていきます。 注意:本記事は2022年11月時点の情報をもとに記載しております。ライブラリの変更等により本記事の記載内容が古くなる可能性がありますが、ご了承ください。 Greykiteとは? LinkedInが2021年にOSSとして公開した時系列予測モデルです。機械学習分野の国際会議であるKDD2022でも発表されたようです。 KDD2022よりLinkedInによる時系列予測OSS Greykite (https://t.co/wpsCnuak2t) の紹介論文。コアとなるSilverkiteというアルゴリズムの紹介が中心で解釈可能性と速度が売り。Proph

                                                  • 論文 Attention Is All You Need から Attentionモデルの解説 - アクセルユニバース株式会社

                                                    Attention は "Attention is all you need" (Vaswani et al, 2017)で一躍有名になった手法ですが、実はこの論文の前からあった概念です。今回はこのAttentionの技術について、またこの論文について解説していきたいと思います。 1 Attentionの概念 Attentionとは、「注意」とあるように、画像や文章の特定の部分に注意を向けるよう、学習させていく方法です。人間の場合を考えてみましょう。私たちが何かを見るとき、全ての部分を同じように観察しているわけではありません。犬の絵があれば、「犬の顔」「犬の手足」「犬の尻尾」を認識して犬だと識別できるのであって、毛の一本一本や肋骨の形に注目している人は少ないでしょう。これと同じことを機械にさせることができれば、より人間に近い形で画像や文章を認識することができます。これがAttentionの

                                                      論文 Attention Is All You Need から Attentionモデルの解説 - アクセルユニバース株式会社
                                                    • BERTを超えたXLNetの紹介

                                                      概要https://arxiv.org/abs/1906.08237 XLNetは2019/6/19に、”XLNet: Generalized Autoregressive Pretraining for Language Understanding”と題してArxivに投稿された論文です。一言(?)でいうと Transformer-XLを単語の順序を入れ替えた(元の順序情報は保持)もので学習させることで、自己回帰モデルで双方向の意味依存関係を取得できるようにしたと主張。20を超えるタスクでBERT超え。 といったところでしょうか。この記事では、背景となる関連技術も含めてXLNetの着想と技術について順々に説明していきます。 自然言語処理のタスク学習の流れと事前学習の種類深層学習を用いた自然言語処理は翻訳、QAタスク、文書分類など多岐にわたります。 深層学習でそれらのタスクを解く際は、タス

                                                        BERTを超えたXLNetの紹介
                                                      • Google AI chief Jeff Dean interview: Machine learning trends in 2020

                                                        Google AI chief Jeff Dean speaks with members of the AI community and press at the I/O developer conference on May 8, 2018. Join us in returning to NYC on June 5th to collaborate with executive leaders in exploring comprehensive methods for auditing AI models regarding bias, performance, and ethical compliance across diverse organizations. Find out how you can attend here. At the Neural Informatio

                                                          Google AI chief Jeff Dean interview: Machine learning trends in 2020
                                                        • 「論理処理が必要と思ったことが確率処理でできるとわかった」のは AI だけだろうか - 木曜不足

                                                          2004年ごろに Google の猫で深層学習が一躍脚光を浴びたとき、画像認識は特徴抽出が難しいので深層学習で良い結果が出るが、自然言語処理は特徴量*1がリッチなので、深層学習を適用するのは難しいだろうと思っていた。 特徴量がリッチとは、例えば「ホームラン」のたった1語でその文はスポーツ、特に野球の話題である可能性が高くなる、みたいな話である。一方、ピクセルの1つが緑であることから何の画像か当てるのは不可能だ。 その後、自然言語処理でも深層学習が当たり前になったのは誰もがご存知のとおりであり、自身の不明を恥じるばかりだ。ただ言い訳をさせてもらえるなら、自然言語処理のえらい先生方も同じように言っていたのだ。 2014年ごろ、LSTM などの深層学習モデルが発展し、自然言語処理でも目覚ましい結果が出始めた。機械翻訳など多くのタスクで、人間の平均といい勝負になったのもこの頃だったと思う。すると、

                                                            「論理処理が必要と思ったことが確率処理でできるとわかった」のは AI だけだろうか - 木曜不足
                                                          • 自然言語処理界隈の巨人:Transformerモデルのご紹介 - Platinum Data Blog by BrainPad

                                                            本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 今回のブログでは、発展を続ける「自然言語処理」技術の中から、さまざまな自然言語処理の課題を非常に高い精度で解決する「Transformer」モデルをテーマに、なぜ分析精度が高いのかを解説します! はじめに こんにちは、アナリティクス本部アナリティクスサービス部の董です。 2017年に Google が発表した「attention is all you need」という論文で提案された「Transformer」は、機械翻訳や文章カテゴリの分類、文章生成等、さまざまな自然言語処理の課題を非常に高い精度で解決し、革命的な進歩で発展しています。当社でもTransformerモデルを業務に生かすことで、これまでは不可能だった分析が可能となっています。 本ブログでは、「なぜTransformerモデル

                                                              自然言語処理界隈の巨人:Transformerモデルのご紹介 - Platinum Data Blog by BrainPad
                                                            • ChatGPTはWebのボケたJPEGである|Yossarian

                                                              はじめに映画化もされた「あなたの人生の物語」(映画化時のタイトルは「メッセージ」でした。監督はドゥニ・ヴィルヌーヴ)などの作品で知られるSF小説家であるテッド・チャン氏が最近著しく話題のChatGPTに関する解説をNEW YORKER誌に寄せました。 適切ではないかもしれない、としながらもChatGPTを非可逆画像圧縮であるJPEGに喩えた内容となっています。個人的にはAIの本質をついているような気もしました。 とても素晴らしい内容ですのでDeepLで翻訳し、若干おかしな訳に手を加えた内容を皆さんと共有します。(本文の改変はしていませんが、個人的に気になった箇所のみ太字としています。私見は訳注として与えております。) ChatGPT Is Blurry JPEG of the Web By Ted Chiang February 9, 2023 本文12013年、ドイツのある建設会社の社員

                                                                ChatGPTはWebのボケたJPEGである|Yossarian
                                                              • NFLのPlayer Contact Detectionで金メダル獲得&コンペ振り返り - Taste of Tech Topics

                                                                皆さんこんにちは 機械学習チームYAMALEXの@tereka114です。 YAMALEXは Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 (詳細はリンク先をご覧ください。) 日本時間3/2までKaggleで開催されていたコンペティションである「1st and Future - Player Contact Detection」がとても面白かったのでその共有をします。 なお、私が所属したチームは9位で金メダルを獲得しました。ソリューションは次に記載されておりますので、ご確認ください。 www.kaggle.com どのようなコンペだったのか。 NFLに関するコンペはここ数年連続で開催されています。 1年目:プレイヤーのヘルメットの座標を衝突したか否かを検出する。 2年目:プレイヤーのヘルメットごとにプレイヤーをアサインする

                                                                  NFLのPlayer Contact Detectionで金メダル獲得&コンペ振り返り - Taste of Tech Topics
                                                                • Deep Learning において,漢字はどの単位で分割・エンコードされるべきなのだろう? - Qiita

                                                                  subcharacterに関しては,BERTやELMoといった文脈情報を扱える言語モデルでの検証はまだ少ないようで,さっと調べた感じだと見つけられませんでした。 論文間にまたがって分割単位が同じ部分がわかるように,分割ごとに色合いを変えた図を作成しました(見易さを優先し,作成した図の次元サイズ等は簡略化しています)。 論文リンクは下部の参考文献に記載しています。 1.Sub-character Neural language Modeling in Japanese (Nguyen et al.) 漢字の表現方法を部首(shallow)・さらに部首より小さい単位(deep)に分解。 言語モデルは単方向のLSTM 言語モデルのパープレキシティーの良さの順は,shallow > deep > baselineとなった。 論文内で紹介されている漢字の4つのデータセットを見ると,同じ漢字でもそれぞ

                                                                    Deep Learning において,漢字はどの単位で分割・エンコードされるべきなのだろう? - Qiita
                                                                  • コンピュータビジョン分野のトップカンファレンスであるECCV2022からワークショップの模様を紹介(前編) - NTT Communications Engineers' Blog

                                                                    目次 目次 はじめに ECCV2022概要 Workshop Instance-Level Recognition Workshop Keynote talk: Image Search and Matching Kaggle Google Universal Image Embedding Challenge Keynote talk: Few-Shot Learning for Object Aware Visual Recognition Language Assisted Product Search Granularity aware Adaptation for Image Retrieval over Multiple Tasks Where in the World is this Image? Transformer-based Geo-localization in t

                                                                      コンピュータビジョン分野のトップカンファレンスであるECCV2022からワークショップの模様を紹介(前編) - NTT Communications Engineers' Blog
                                                                    • AIは人を笑わせられるのか? ボケの自動生成を競う、お笑いAIバトルの舞台裏

                                                                      AIはボケで人を笑わせられるのか? 針原佳貴氏(以下、針原):みなさま、お待たせいたしました。アマゾン ウェブ サービス ジャパン、ソリューションアーキテクトの針原です。「電笑戦 ~AIは人を笑わせられるのか? 挑戦を支える技術とAWS~」というセッションを始めてまいりたいと思います。 本技術セッションでは、「電笑戦」の概要説明のあと、電笑戦のサンプルモデルを構築していただいた電通デジタル・石川さんより技術解説をしていただき、その後、電笑戦参加企業の3社から、これまでのモデル開発と本戦に向けた意気込みを語っていただきます。 まず初めに、みなさんご存知でしょうか。『ボケて』は、株式会社オモロキが運営している国内最大級のお笑いメディアです。1枚の画像に対して一言ボケを投稿して、笑いをとります。 例えば、この画像を見てボケられるでしょうか。 「いなり寿司」。こちらが実際に『ボケて』に投稿されてい

                                                                        AIは人を笑わせられるのか? ボケの自動生成を競う、お笑いAIバトルの舞台裏
                                                                      • 生成 Deep Learning

                                                                        以下、日本語版の動作確認で使用したコマンドラインの例です。 $ python 01_generate_data.py car_racing --total_episodes 200 --time_steps 300 $ python 02_train_vae.py --new_model $ python 03_generate_rnn_data.py $ python 04_train_rnn.py --new_model --batch_size 100 $ python 05_train_controller.py car_racing -n 4 -t 1 -e 4 --max_length 1000 賞賛の声 訳者まえがき まえがき 第I部 生成型ディープラーニング入門 1章 生成モデリング 1.1 生成モデリングとは何か? 1.1.1 生成モデリングと識別モデリング 1.1.2 

                                                                          生成 Deep Learning
                                                                        • 【翻訳】機械学習の技術的負債の重箱の隅をつつく (後編) - 株式会社ホクソエムのブログ

                                                                          ホクソエムサポーターの白井です。 今回は前回 【翻訳】機械学習の技術的負債の重箱の隅をつつく (前編) の続きを紹介します。 blog.hoxo-m.com ※この記事は、Matthew McAteer氏によるブログ記事Nitpicking Machine Learning Technical Debtの和訳です。原著者の許可取得済みです。 後編では、コードのアンチパターンなど、エンジニアには身近な話題で、前編と比較して実践しやすいコンテンツも多いと思います。 Nitpicking Machine Learning Technical Debt (機械学習の技術的負債の重箱の隅をつつく) Part5 MLコードにある共通のダメなパターン Part6 構成の負債 (退屈だけど修正は簡単) Part7 解決への夢を打ち砕く実世界 Part8 奇妙なメタセクション サニティーチェック (Sani

                                                                            【翻訳】機械学習の技術的負債の重箱の隅をつつく (後編) - 株式会社ホクソエムのブログ
                                                                          • language models まとめ

                                                                            Transcript Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Language Models まとめ 2020/05/26 DeNA Co., Ltd. Strictly confidential 1 Kosuke Sakami 目次 ▪ 前置き ▪ BERT の architecture (単語紹介) ▪ 紹介 ⁃ BERT ⁃ GPT-2 ⁃ Transformer-XL (実験なし) ⁃ XLNet ⁃ RoBERTa ⁃ ALBERT ⁃ T5 (実験なし) ⁃ BART ⁃ ELECTRA 前置き ▪ Language Models を紹介するよ! ⁃ 分類問題を想定します ▪ huggingface の transformers ライブラリの中から紹介していく ⁃ ForSequenceClassificati

                                                                              language models まとめ
                                                                            • Professional Machine Learning Engineer試験対策マニュアル - G-gen Tech Blog

                                                                              G-gen の佐々木です。当記事では Google Cloud(旧称 GCP)の認定資格の一つである、Professional Machine Learning Engineer 試験の対策や出題傾向について解説します。 基本的な情報 Professional Machine Learning Engineer とは 難易度 試験対策 機械学習の一般的な知識 代表的な機械学習アルゴリズム 評価指標 回帰問題における評価指標 分類問題における評価指標 ヒューリスティック 機械学習モデルの開発、運用における課題の解決 データの前処理 欠損値の処理 カテゴリカル変数の扱い 不均衡データの対策 過学習の対策 正則化 早期停止 トレーニングの改善 ハイパーパラメータの調整 トレーニング時間の改善 交差検証 モデルのモニタリングと改善 スキューとドリフト モデルの軽量化手法 Google Cloud

                                                                                Professional Machine Learning Engineer試験対策マニュアル - G-gen Tech Blog
                                                                              • MasaKato on Twitter: "人工知能学会論文「LSTMを用いた株価変動予測」のまとめ「実験の結果、LSTM は 1 分後利益率の時系列をモデル化できることが確認された。ただし、過学習が生じ、テストデータに対する予測ができない点が課題である」. これが月間アク… https://t.co/B23T8K4OnA"

                                                                                人工知能学会論文「LSTMを用いた株価変動予測」のまとめ「実験の結果、LSTM は 1 分後利益率の時系列をモデル化できることが確認された。ただし、過学習が生じ、テストデータに対する予測ができない点が課題である」. これが月間アク… https://t.co/B23T8K4OnA

                                                                                  MasaKato on Twitter: "人工知能学会論文「LSTMを用いた株価変動予測」のまとめ「実験の結果、LSTM は 1 分後利益率の時系列をモデル化できることが確認された。ただし、過学習が生じ、テストデータに対する予測ができない点が課題である」. これが月間アク… https://t.co/B23T8K4OnA"
                                                                                • End-to-End 音声認識のレスポンスを高速化する最小遅延学習

                                                                                  ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは。音声認識技術の研究開発を担当している篠原です。 皆さんはスマートフォンで音声による検索を使ったことがあるでしょうか? 音声認識は入力された音声をテキストに変換する技術で音声検索などさまざまなアプリで使われています。最近「End-to-End 音声認識」というニューラルネットに基づく革新的な方式が登場して驚くようなスピードで技術が発展しているところです。この記事ではヤフーにおける End-to-End 音声認識の研究成果の一例として「最小遅延学習」と呼ばれるレスポンス高速化の新技術を紹介します。 なお、本研究は米国カーネギーメロン大学の渡部晋治准教授との共同研究として実施したものです。また、この技術の詳細は先週開催された

                                                                                    End-to-End 音声認識のレスポンスを高速化する最小遅延学習