並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 328件

新着順 人気順

"deep learning"の検索結果281 - 320 件 / 328件

  • Google Research Team bring Deep Learning to Pfam

    May 2, 2021 at 7:32 pm Exciting! This begs a few questions, actually: 1) Why not re-train the hmm suite on a larger corpus than the small set of seed alignments? 2) Why not just take (a representative subset of) the new Pfam-N alignments and build more HMMs out of them (naming each the same thing that ProtENN mapped them to)? 3) For sequences that still don’t have great matches to existing cluster

      Google Research Team bring Deep Learning to Pfam
    • 【Deep Learning研修(発展)】データ生成・変換のための機械学習

      【Deep Learning研修(発展)】はディープラーニング・機械学習に関する発展的な話題を幅広く紹介する研修動画シリーズです。Neural Network Consoleチャンネル(https://www.youtube.com/c/NeuralNetworkConsole)でもディープラーニングに関するより...

        【Deep Learning研修(発展)】データ生成・変換のための機械学習
      • 6. Deep Learningの研究分野:自然言語処理、時系列解析

        ある時点での出力を、次の時点での入力として利用する再帰的構造(閉路)を持ったニューラルネットワーク。狭義には単純な構造のものを指す。逐語的に処理するため、並列に学習できないのが欠点。

          6. Deep Learningの研究分野:自然言語処理、時系列解析
        • 将棋ソフト、長時間の対局は、Deep Learning系に軍配が上がるのか? | やねうら王 公式サイト

          Deep Learning系の将棋ソフト(ふかうら王)と、やねうら王(評価関数:水匠)とで、長時間にした時にどちらのほうが棋力の伸びが大きいかについて計測したので公開する。 単純には、Deep Learning系の将棋ソフトのほうが局面評価の精度が高いと考えられるので、長時間になればなるほど強くなるように思われる。ところが、探索部の性能の差があって、やねうら王はドメイン知識(将棋固有の知識)を活用して探索しているので、探索性能の差があると考えられる。 水匠 vs ふかうら王 水匠30万ノード(局面)、ふかうら王(評価関数:GCT) 3000ノードでの比較。 // 水匠300kn vs ふかうら王V6.02 3kn + root df-pn mate 30kn // 双方、1スレッドでノード数の制限をして対局させた。 // やねうら王互角局面集の24手目の局面からの対局。 T1,b1000,

          • 任意のベースカラーを設定すると、WarningやSuccessなどの最適なアラート用カラーを自動で選出してくれる・「Eva Deep learning color generator」

            Eva Deep learning color generatorは任意のベースカラーを元に、最適なアラート用カラーを選出してくれるカラーアプリです。名前の通り、ディープラーニングが使われているみたいです。 本ツールの開発者はもともとEva Design SystemというOSSなコンポーネントライブラリを開発、公開している他、以前ご紹介したアイコンセットのEva Iconsも同じくOSSで公開したプロジェクトです。他にも様々なオープンソースプロジェクトを展開しているのでご興味のある方はご覧になってみてください。 Eva Deep learning color generator

              任意のベースカラーを設定すると、WarningやSuccessなどの最適なアラート用カラーを自動で選出してくれる・「Eva Deep learning color generator」
            • 1984年に発売されたパソコンでDeep Learning型の囲碁AI | やねうら王 公式サイト

              昨日と今日開催されている第15回UEC杯コンピュータ囲碁大会で面白いことがあったので記事として取り上げる。 第15回UEC杯コンピュータ囲碁大会 : http://entcog.c.ooco.jp/entcog/new_uec/ みんながいつもお世話になっているMCTS(モンテカルロ木探索)の発明者であるRémi Coulomさんが、Thomoson MO5(以下、MO5と略す)という1984年に発売されたパソコンで動く囲碁AIのプログラムを持参したのだ。 MO5は、フランスの学校で教育用として使われていたそうで、多くのフランスの子どもたちが、このパソコンを初めてのコンピューターとして体験したのだそうだ。 そんな思い入れのある(?)MO5に、Crazy Stone(Rémiさんの囲碁AI)を移植したということである。 MO5は、1MHzのMotorola 6809 CPU、32kbのRAM

              • 【自然言語処理】Deep Learningを使ってアンジャッシュ渡部のAIを作る【RNN】 - Qiita

                はじめに アンジャッシュ渡部さん(以下敬称略)の記者会見が世間を賑わせましたね。 この記者会見を見て皆さんいろいろと思うところがあるとは思いますが、僕は以下の記事が気になりました。 https://sn-jp.com/archives/22422 今回の記者会見の受け答えで、渡部が特定のワードを連発していたというものです。 特に「本当に」というワードに限っては100回以上使われていました。 これだけ偏った語彙の言葉が連発された記者会見を見て、僕はこう思いました 渡部のセリフをディープラーニングで学習して、渡部っぽい文章を自動生成する渡部AIを作りたい! そうして勢いのままにこの記事を書いています。 結構長くなってしまったので、手っ取り早く結果だけ知りたい人は最後の「実際にやってみた」だけでも読んでもらえればと思います。 自然言語処理の勉強をしながら書いたので間違ってる箇所や正確でない箇所が

                  【自然言語処理】Deep Learningを使ってアンジャッシュ渡部のAIを作る【RNN】 - Qiita
                • Maxwell! 🌃 🌻 🎄 on Twitter: "TensorFlow がなぜ再現性をもたないのかを解説した動画。 Kaggle の discussion スレッドにリンクが転がっていたのですが、非常に分かりやすい動画でした。 Deep Learning Reproducibi… https://t.co/YlK25lf3om"

                  TensorFlow がなぜ再現性をもたないのかを解説した動画。 Kaggle の discussion スレッドにリンクが転がっていたのですが、非常に分かりやすい動画でした。 Deep Learning Reproducibi… https://t.co/YlK25lf3om

                    Maxwell! 🌃 🌻 🎄 on Twitter: "TensorFlow がなぜ再現性をもたないのかを解説した動画。 Kaggle の discussion スレッドにリンクが転がっていたのですが、非常に分かりやすい動画でした。 Deep Learning Reproducibi… https://t.co/YlK25lf3om"
                  • MIT researchers warn that deep learning is approaching computational limits

                    The Nvidia Selene is a top 10 supercomputer. Nvidia said it plans to make a new supercomputer with Arm. Join us in returning to NYC on June 5th to collaborate with executive leaders in exploring comprehensive methods for auditing AI models regarding bias, performance, and ethical compliance across diverse organizations. Find out how you can attend here. We’re approaching the computational limits o

                      MIT researchers warn that deep learning is approaching computational limits
                    • Deep Learning with Bayesian Principles

                      Deep learning and Bayesian learning are considered two entirely different fields often used in complementary settings. It is clear that combining ideas from the two fields would be beneficial, but how can we achieve this given their fundamental differences? This tutorial will introduce modern Bayesian principles to bridge this gap. Using these principles, we can derive a range of learning-algorith

                        Deep Learning with Bayesian Principles
                      • The Future of Deep Learning Is Photonic

                        Think of the many tasks to which computers are being applied that in the not-so-distant past required human intuition. Computers routinely identify objects in images, transcribe speech, translate between languages, diagnose medical conditions, play complex games, and drive cars. The technique that has empowered these stunning developments is called deep learning, a term that refers to mathematical

                          The Future of Deep Learning Is Photonic
                        • eGPUでハイスペックLinuxデスクトップをDeep Learning Workstation化計画(eGPUセットアップ編) - Qiita

                          合計: ¥110,880. PC本体との合計: ¥218,065. (PayPay考慮時: ¥173,604.) 使用するGPU: NVIDA Geforce RTX 2080 SUPER Deep Learning用ワークステーションとして使用することが構築の最重要目標であるため、GPUはNVIDIA社のGeforce RTX 2080 SUPER(玄人志向製)を購入しました。もともと2ランク下の2070 SUPERを購入する予定でしたがNTT-X Storeでセールをしていた為、当該GPUを衝動買いしてしまいました。 (2020/2/18時点でのNTT-X Store販売ページ) NVIDIAが一般用GPUとして販売しているGeforceシリーズでは上から3番目(TITAN RTX, RTX 2080 Tiの次)のランクのGPUです。正直Thunderbolt 3接続でフル性能が出ない

                            eGPUでハイスペックLinuxデスクトップをDeep Learning Workstation化計画(eGPUセットアップ編) - Qiita
                          • A Short Chronology Of Deep Learning For Tabular Data

                            Jul 24, 2022 by Sebastian Raschka [Last updated: Jan 23, 2023] In my lectures, I emphasize that deep learning is really good for unstructured data (essentially, that’s the opposite of tabular data). Deep learning is sometimes referred to as “representation learning” because its strength is the ability to learn the feature extraction pipeline. Most tabular datasets already represent (typically manu

                              A Short Chronology Of Deep Learning For Tabular Data
                            • Deep Learningで行う自然言語処理入門

                              この動画では、データの前処理を中心にDeep Learningで自然言語を扱うにあたっての基礎について解説しています。 前回の動画:「物体検出」 https://www.youtube.com/watch?v=5nmVHoA-A2E Deep Learning入門:Recurrent Neural Networksとは https://www.youtube.com/watch?v=yvqgQZIUAKg Deep Learning入門:数式なしで理解するLSTM(Long short-term memory) https://www.youtube.com/watch?v=unE_hofrYrk Deep Learning入門:Attention(注意) https://www.youtube.com/watch?v=g5DSLeJozdw Deep Learning入門:Tr

                                Deep Learningで行う自然言語処理入門
                              • GitHub - facebookresearch/pytorch3d: PyTorch3D is FAIR's library of reusable components for deep learning with 3D data

                                PyTorch3D provides efficient, reusable components for 3D Computer Vision research with PyTorch. Key features include: Data structure for storing and manipulating triangle meshes Efficient operations on triangle meshes (projective transformations, graph convolution, sampling, loss functions) A differentiable mesh renderer Implicitron, see its README, a framework for new-view synthesis via implicit

                                  GitHub - facebookresearch/pytorch3d: PyTorch3D is FAIR's library of reusable components for deep learning with 3D data
                                • GitHub - deep-learning-with-pytorch/dlwpt-code: Code for the book Deep Learning with PyTorch by Eli Stevens, Luca Antiga, and Thomas Viehmann.

                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                    GitHub - deep-learning-with-pytorch/dlwpt-code: Code for the book Deep Learning with PyTorch by Eli Stevens, Luca Antiga, and Thomas Viehmann.
                                  • Collective Intelligence for Deep Learning: A Survey of Recent Developments

                                    In the past decade, we have witnessed the rise of deep learning to dominate the field of artificial intelligence. Advances in artificial neural networks alongside corresponding advances in hardware accelerators with large memory capacity, together with the availability of large datasets enabled practitioners to train and deploy sophisticated neural network models that achieve state-of-the-art perf

                                    • GitHub - terryky/tflite_gles_app: GPU accelerated deep learning inference applications for RaspberryPi / JetsonNano / Linux PC using TensorflowLite GPUDelegate / TensorRT

                                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                        GitHub - terryky/tflite_gles_app: GPU accelerated deep learning inference applications for RaspberryPi / JetsonNano / Linux PC using TensorflowLite GPUDelegate / TensorRT
                                      • Deep Learningによる異常検知デモ①:回転レーン上のブロックを撮影し、ブロックの位置とゲート跡を検出する - OPTiM TECH BLOG

                                        お久しぶりです、R&Dの加藤です。最近は「A列車で行こう~はじまる観光計画~」をコツコツ進めていますが楽しいですね。Steamでも公開されるそうなのでNintendo Switchを持っていなくてもプレイできますよ。 さて、今回はDeep Learningによる異常検知デモを作成したので説明します。 デモ動画 解説 撮影環境とアノテーション Deep Learningによる異常検知の速度と精度の話 速度改善する方法 Deep Learningとチャンネル モノクロ画像とカラー画像 カラー画像(3ch)を超えた、4chの画像も存在する Deep Learningにおける畳込みとチャンネル 最後に デモ動画 まずはデモ動画を観てください。 回転レーン上のブロックを撮影し、ブロックの位置(Infer image[2])とゲート跡(Infer image[1])を検出する様子です。 youtu.b

                                          Deep Learningによる異常検知デモ①:回転レーン上のブロックを撮影し、ブロックの位置とゲート跡を検出する - OPTiM TECH BLOG
                                        • Rasperry Pi 4のCPUでDeep Learningを高速化 - Qiita

                                          私たちは、マルチコアCPUやSIMDアーキテクチャのHW性能を引出す組込みSW最適化技術をコアコンピタンスとするスタートアップを目指す有志集団です。 Raspberry Pi 3/4のCPUだけでどれくらいDeep Learningを高速化できるかに挑戦しています。 過去、Chainerやdarknetといったフレームワーを対象としていましたが、現在はONNX runtimeの高速化に挑戦しています。 現時点での結果は以下の通りです。 @onnxruntime on RPi4(CPU Only) MobileNetV3(Image clasification) MobileNetV2-SSDLite(Image detection) Original vs. Accelerated#RaspberryPi #Python #DeepLearninghttps://t.co/wvBLn9Tf

                                            Rasperry Pi 4のCPUでDeep Learningを高速化 - Qiita
                                          • Reengineering Facebook AI’s deep learning platforms for interoperability

                                            Reengineering Facebook AI’s deep learning platforms for interoperability AI is used at Facebook today in scores of different ways, from providing intelligent shopping recommendations to detecting harmful content to translating text to generating automated captions. We’ve built several deep learning platforms so we can iterate quickly on new modeling ideas and then seamlessly deploy them at scale.

                                              Reengineering Facebook AI’s deep learning platforms for interoperability
                                            • Torch.manual_seed(3407) is all you need: On the influence of random seeds in deep learning architectures for computer vision

                                              In this paper I investigate the effect of random seed selection on the accuracy when using popular deep learning architectures for computer vision. I scan a large amount of seeds (up to $10^4$) on CIFAR 10 and I also scan fewer seeds on Imagenet using pre-trained models to investigate large scale datasets. The conclusions are that even if the variance is not very large, it is surprisingly easy to

                                              • AI pioneer Geoff Hinton: “Deep learning is going to be able to do everything”

                                                On the AI field’s gaps: "There’s going to have to be quite a few conceptual breakthroughs...we also need a massive increase in scale." On neural networks’ weaknesses: "Neural nets are surprisingly good at dealing with a rather small amount of data, with a huge numbers of parameters, but people are even better." On how our brains work: "What’s inside the brain is these big vectors of neural activit

                                                  AI pioneer Geoff Hinton: “Deep learning is going to be able to do everything”
                                                • Top Machine and Deep Learning Research Papers - Fritz ai

                                                  Having had the privilege of compiling a wide range of articles exploring state-of-art machine and deep learning research in 2019 (you can find many of them here), I wanted to take a moment to highlight the ones that I found most interesting. I’ll also share links to their code implementations so that you can try your hands at them. Contrastive Representation Distillation This paper in the model di

                                                    Top Machine and Deep Learning Research Papers - Fritz ai
                                                  • 【Deep Learning研修(発展)】系列データモデリング (RNN / LSTM / Transformer) 第7回「Transformer」

                                                    【Deep Learning研修(発展)】( https://www.youtube.com/playlist?list=PLbtqZvaoOVPA-keirzqx2wzpujxE-fzyt )はディープラーニング・機械学習に関する発展的な話題を幅広く紹介する研修動画シリーズです。Neural Network Consoleチャンネル(https://www.youtube.com/c/NeuralNetworkConsole/ )でもディープラーニングに関するより基礎的な内容の解説動画を公開しておりますので、ぜひそちらも御覧ください。 本動画は「系列データモデリング」の第7回の動画です。前回のAttentionに続き、深層学習分野において大きなインパクトを与えた手法であるTransformerについて説明します。 [スライド5] Attention Is All You Need

                                                      【Deep Learning研修(発展)】系列データモデリング (RNN / LSTM / Transformer) 第7回「Transformer」
                                                    • 『ディープラーニング(Deep Learning)の歴史を振り返る - 渋谷駅前で働くデータサイエンティストのブログ』へのコメント

                                                      ブックマークしました ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください Twitterで共有

                                                        『ディープラーニング(Deep Learning)の歴史を振り返る - 渋谷駅前で働くデータサイエンティストのブログ』へのコメント
                                                      • GitHub - alibaba/TinyNeuralNetwork: TinyNeuralNetwork is an efficient and easy-to-use deep learning model compression framework.

                                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                          GitHub - alibaba/TinyNeuralNetwork: TinyNeuralNetwork is an efficient and easy-to-use deep learning model compression framework.
                                                        • 【Deep Learning研修(発展)】データ生成・変換のための機械学習 第7回前編「Diffusion models」

                                                          【Deep Learning研修(発展)】はディープラーニング・機械学習に関する発展的な話題を幅広く紹介する研修動画シリーズです。本動画は「データ生成・変換のための機械学習技術」の追加回(第7回)前編の動画です。 後編 ⇒ https://youtu.be/9Eu8WvKmkRA 本研修のプレイリスト ⇒ https://youtube.com/playlist?list=PLbtqZvaoOVPB2WCoUt9VCsl7BQHRdhb8m -- ソニーが提供するオープンソースのディープラーニング(深層学習)フレームワークソフトウェアのNeural Network Libraries( https://nnabla.org/, https://github.com/sony/nnabla/ )に関連する情報を紹介する動画チャンネルを開設しました( https://www.youtub

                                                            【Deep Learning研修(発展)】データ生成・変換のための機械学習 第7回前編「Diffusion models」
                                                          • A 2019 Guide to Speech Synthesis with Deep Learning - Fritz ai

                                                            Artificial production of human speech is known as speech synthesis. This machine learning-based technique is applicable in text-to-speech, music generation, speech generation, speech-enabled devices, navigation systems, and accessibility for visually-impaired people. In this article, we’ll look at research and model architectures that have been written and developed to do just that using deep lear

                                                              A 2019 Guide to Speech Synthesis with Deep Learning - Fritz ai
                                                            • Deep learning pioneer Geoffrey Hinton has quit Google

                                                              Geoffrey Hinton, a VP and engineering fellow at Google and a pioneer of deep learning who developed some of the most important techniques at the heart of modern AI, is leaving the company after 10 years, the New York Times reported today. According to the Times, Hinton says he has new fears about the technology he helped usher in and wants to speak openly about them, and that a part of him now reg

                                                                Deep learning pioneer Geoffrey Hinton has quit Google
                                                              • Overview — deep learning for molecules & materials

                                                                Overview A. Math Review 1. Tensors and Shapes B. Machine Learning 2. Introduction to Machine Learning 3. Regression & Model Assessment 4. Classification 5. Kernel Learning C. Deep Learning 6. Deep Learning Overview 7. Standard Layers 8. Graph Neural Networks 9. Input Data & Equivariances 10. Equivariant Neural Networks 11. Explaining Predictions 12. Attention Layers 13. Deep Learning on Sequences

                                                                  Overview — deep learning for molecules & materials
                                                                • Building a Deep Learning Based Reverse Image Search - KDnuggets

                                                                  Building a Deep Learning Based Reverse Image Search Following the journey from unstructured data to content based image retrieval. By Vegard Flovik Ever wondered how the Google reverse image search works, which take in an image and returns you the most similar images in a fraction of a second? For humans, evaluating the content of images is fairly straight forward, and determining whether an image

                                                                    Building a Deep Learning Based Reverse Image Search - KDnuggets
                                                                  • 筑波大学と豊橋技術科学大学、1枚の静止画像(主に風景)からより写実的なループアニメーション(シネマグラフ)を生成するDeep learningを用いた手法を発表

                                                                    筑波大学と豊橋技術科学大学、1枚の静止画像(主に風景)からより写実的なループアニメーション(シネマグラフ)を生成するDeep learningを用いた手法を発表 2019-10-17 筑波大学と豊橋技術科学大学による研究チームは、1枚の静止画像から写実的なループアニメーション(シネマグラフ)を生成するDeep learningを用いた手法「Animating Landscape」を発表しました。 論文:Animating Landscape: Self-Supervised Learning of Decoupled Motion and Appearance for Single-Image Video Synthesis YUKI ENDO, University of Tsukuba & Toyohashi University of Technology YOSHIHIRO KAN

                                                                      筑波大学と豊橋技術科学大学、1枚の静止画像(主に風景)からより写実的なループアニメーション(シネマグラフ)を生成するDeep learningを用いた手法を発表
                                                                    • GitHub - shenweichen/DeepCTR: Easy-to-use,Modular and Extendible package of deep-learning based CTR models .

                                                                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                        GitHub - shenweichen/DeepCTR: Easy-to-use,Modular and Extendible package of deep-learning based CTR models .
                                                                      • 【今度こそ】「ゼロから作るDeep Learning」をiPhoneのCarnetsだけで学ぶ - blog.tmp.tokyo

                                                                        少し間が空きました。 ご報告 深層学習 これまでの振り返り Pythonista 3 の Numpy Numpy のアップデート 新たに見つけたアプリ Jupyter Notebook とは? Numpy のバージョンを確認する Gist によるドキュメント管理とブログへの引用 そしてアノ問題へ Jupyter Notebook での画像表示問題 いざ実行 ご報告 昨年の7月から始めていたザ・レスポンスの20万円の講座「セールスライター認定コース」の半年の講座が終了したのが昨年末。それから認定試験に向けてコツコツと課題に取り組んできました。 令和2年2月11日(火) ついに課題を仕上げて提出しました。採点が行われて認定資格の合否が判定されます。結果が出るまではおおよそ1〜2ヶ月とあったので少しのんびり待つつもりです。 深層学習 ひと段落したので、これから少し本業に近いところで前に途中のまま

                                                                          【今度こそ】「ゼロから作るDeep Learning」をiPhoneのCarnetsだけで学ぶ - blog.tmp.tokyo
                                                                        • ゼロから作るDeep Learning④ - ぱたへね

                                                                          ゼロから作るDeep Learning④が良かったので紹介します。 www.oreilly.co.jp 本の紹介文に「読者はコードを通してハッとする気づきを数多く得られるでしょう。」とある通り、Pythonのコードを見ながらなるほどと思うところが沢山ありました。 内容 ①~③はほぼDeep Learningでしたが、今回のテーマは強化学習です。全体としてはDeep Learningの部分は少なく、③で作ったDeZeroもさらっと使いこなす感じです。DQNから始まるDeep Learning系列の強化学習の解説に期待すると、なかなか最後まで読み切れないかもしれません。 この本の良いところはDQNに行くまでの従来の強化学習について、分かりやすいコード付きで解説されていることです。特に6章は素晴らしく、僕にとっては6章だけでもこの本を読んで良かったと思っています。 強化学習について書かれた本は数

                                                                            ゼロから作るDeep Learning④ - ぱたへね
                                                                          • R-CNN object detection with Keras, TensorFlow, and Deep Learning - PyImageSearch

                                                                            In this tutorial, you will learn how to build an R-CNN object detector using Keras, TensorFlow, and Deep Learning. Today’s tutorial is the final part in our 4-part series on deep learning and object detection: Part 1: Turning any CNN image classifier into an object detector with Keras, TensorFlow, and OpenCVPart 2: OpenCV Selective Search for Object DetectionPart 3: Region proposal for object dete

                                                                              R-CNN object detection with Keras, TensorFlow, and Deep Learning - PyImageSearch
                                                                            • GitHub - satellite-image-deep-learning/techniques: Techniques for deep learning with satellite & aerial imagery

                                                                              Classification Segmentation Instance segmentation Object detection Object counting Regression Cloud detection & removal Change detection Time series Crop classification Crop yield & vegetation forecasting Wealth and economic activity Disaster response Super-resolution Pansharpening Image-to-image translation Data fusion Generative networks Autoencoders, dimensionality reduction, image embeddings &

                                                                                GitHub - satellite-image-deep-learning/techniques: Techniques for deep learning with satellite & aerial imagery
                                                                              • 【令和最新版】画像分野のDeep Learning (Computer Vision) 初心者向け資料 - Qiita

                                                                                はじめに 本記事は、2022年3月に修士課程を修了する私が学部4年から3年間で学んできた知識について経験的なイメージ(偏見)を携えて、修論とは別になんとなくまとめてみようとするものです。 本記事は理論メインになります。 実装のプログラミングは多少話題にしてますが、そちらをしっかり学びたい方にはそれほど役に立たないと思います。ご了承ください。 一応、以下のような人をターゲットとして書いています。 新たに学び始める人 ざっくり分野の概要を知りたい人 知識のない人向けに講演などする予定があり参考にしたい人 とにかく何でもいいから読み物がほしい人 現在、入門書籍や入門記事はたくさんありますが、持論・体験・最新の研究についても触れながら書くつもりなので、少しでも良いなと思っていただければと考えています。 数学的な話も少し出ますが、中学・高校数学レベルがわかれば大丈夫です。 誤字脱字・間違った知識の報

                                                                                  【令和最新版】画像分野のDeep Learning (Computer Vision) 初心者向け資料 - Qiita
                                                                                • What Comes After Deep Learning - DataScienceCentral.com

                                                                                  Home » UncategorizedWhat Comes After Deep Learning Vincent GranvilleMarch 22, 2018 at 3:30 pm This article is by Bill Vorhies. Summary: We’re stuck.  There hasn’t been a major breakthrough in algorithms in the last year.  Here’s a survey of the leading contenders for that next major advancement. We’re stuck.  Or at least we’re plateaued.  Can anyone remember the last time a year went by without a

                                                                                    What Comes After Deep Learning - DataScienceCentral.com