並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 34497件

新着順 人気順

ディープラーニングの検索結果241 - 280 件 / 34497件

  • AIで数千人を瞬時にカウントできる技術をキヤノンが開発、計測誤差は5%以内を実現 | Ledge.ai

    12月19日、キヤノンは、ディープラーニング(深層学習)を用いて、ネットワークカメラで撮影した映像から、数千人規模の群衆人数をリアルタイムにカウントする映像解析技術を開発したと発表。あわせて、この技術を搭載した映像解析ソフトウェア「People Counter Pro」を12月下旬から発売する。(外部サイト) キヤノンに価格を問い合わせたところ、システム構成によって大きく変わる可能性があるものの、XProtect版の場合はおおよそ100万円~(サーバー、カメラ、ライセンス含む)だそうだ。 キヤノンによれば、 「2018年に開催されたラグビーの国際試合での実証実験では、キヤノンの群衆人数カウントの技術によって約6千人を数秒でカウントできました。実証実験後の画像を人手で確認した人数と、ソフトウェアによるカウント人数の差は5%以内に収まり、ほぼリアルタイムで、群衆人数を正確に把握することに成功し

      AIで数千人を瞬時にカウントできる技術をキヤノンが開発、計測誤差は5%以内を実現 | Ledge.ai
    • 初心者でも機械学習の基本的なアルゴリズムを学べる11のスライド - paiza times

      Photo by fdecomite こんにちは。谷口です。 最近、機械学習の勉強をしている人や、機械学習関連の求人が増えてきましたね。弊社のエンジニアにも、機械学習を勉強中の人達が何人かいます。 ただ、初心者だと「機械学習を勉強したいけど、難しいし何から手を付けたらいいのかよくわからない」という人も多いかと思います。 そこで今回は、機械学習の勉強を始めたばかりという初心者の方向けに、機械学習でよく使われるアルゴリズムがわかるスライドをいくつかご紹介します。 ■機械学習以前 そもそも「機械学習で何ができるのか・どんなものなのか知りたい」という段階の人が機械学習の概要をつかむには、このあたりのスライドが参考になるかと思います。 If文から機械学習への道 from nishio www.slideshare.net 機械学習入門以前 from mrtc0 www.slideshare.net

        初心者でも機械学習の基本的なアルゴリズムを学べる11のスライド - paiza times
      • 計算量オーダーの求め方を総整理! 〜 どこから log が出て来るか 〜 - Qiita

        NTT データ数理システムでリサーチャーをしている大槻 (通称、けんちょん) です。今回は計算量オーダーの求め方について書きます。 0. はじめに 世の中の様々なシステムやソフトウェアはアルゴリズムによって支えられています。Qiita Contribution ランキング作成のために用いるソートアルゴリズムのような単純なものから、カーナビに使われている Dijkstra 法、流行中のディープラーニングに用いられている確率的勾配降下法など、様々な場面でアルゴリズムが活躍しています。アルゴリズムとはどんなものかについて具体的に知りたい方には以下の記事が参考になると思います: アルゴリズムとは何か ~ 文系理系問わず楽しめる精選 6 問 ~ アルゴリズムを学ぶと $O(n^2)$ や $O(n\log{n})$ や $O(2^n)$ といった計算量オーダーの概念が登場します。こうした記法を見ると

          計算量オーダーの求め方を総整理! 〜 どこから log が出て来るか 〜 - Qiita
        • そろそろニューラルネットやディープラーニングを「人間の脳を模倣してる」というのをやめませんか? - 病みつきエンジニアブログ

          最近(?)ニューラルネット(Neural Network)やらディープラーニング(Deep Learning; 深層学習)やらが流行ってきて、人工知能やらシンギュラリティやら言われるようになって、その中でよく言われるのが「ディープラーニングは人間の脳を模倣してる」とか「特徴量を選ばずに学習できる」とか、そんなことが言われるわけです。 けど、そういったキーワードが一人歩きして、「人工知能は危険だ」論とか、人工知能に対する過剰な期待論がはびこってしまっている気がする。そこで言いたいのが「ディープラーニングは人間の脳を模倣している」と言ってしまうのをやめましょう、という話。 ニューラルネットワークが「人間の脳を模倣」してる話 まず最初に、「ニューラルネットワークが人間の脳を模倣してる」論が、あながち間違ってないよ、ということを話しておきたい。あながち間違ってないんだけど、それでもやめたほうが良い

            そろそろニューラルネットやディープラーニングを「人間の脳を模倣してる」というのをやめませんか? - 病みつきエンジニアブログ
          • 今話題のAIをweb上で誰でも気軽に作れる「AIメーカー」を作ってみた - Qiita

            今話題のAIをweb上で誰でも気軽に作れる「AIメーカー」を開発しました! ①AIに覚えさせたいタグを入力 ②タグから自動で画像データを収集 ③AIがデータから学習 の3ステップで誰でも簡単にAIを作れます! 動画では手相占いのAIに挑戦! みんなもAIを作って遊んでみてね!https://t.co/66DFU7GRZ2 pic.twitter.com/ie1LmioyA1 — 2z@AIメーカー (@2zn01) 2018年7月19日 こんにちは、2z(Twitter: @2zn01 )です。 はじめてのQiita記事です。 今話題のAIをweb上で誰でも気軽に作れる「AIメーカー」を開発しました! ■AIメーカー https://aimaker.io/ 作ったもの 以下の3ステップで誰でも簡単にAIを作れます! AIに覚えさせたいタグを入力 タグから自動で画像データを収集 AIがデータ

              今話題のAIをweb上で誰でも気軽に作れる「AIメーカー」を作ってみた - Qiita
            • ChatGPTのコア技術「GPT」をざっくり理解する - Qiita

              ※本記事はOracleの下記Meetup「Oracle Big Data Jam Session」で実施予定の内容です。 ※セミナー実施済の動画に関しては以下をご参照ください。 本記事の対象者 これから機械学習を利用した開発をしていきたい方 機械学習のトレンド技術を知りたい方 なるべく初歩的な内容から学習したい方 はじめに Transformerの登場以降、著しい技術革新が続くここ数年、特にOpenAI社のChatGPTのサービス開始以降、おびただしい数の技術ブログや記事がインターネット上に存在する中、本記事に目を留めていただいてありがとうございます。 この勉強会では、専門用語や難解な公式を極力排除し、初学者の方々を対象に、「そもそも自然言語の機械学習ってどういうもの?」、「言語モデルって要するに何?」というところからGPTをざっくり理解することを目的としています。従って、本記事に記載のあ

                ChatGPTのコア技術「GPT」をざっくり理解する - Qiita
              • Kaggle参戦記 〜入門からExpert獲得までの半年間の記録 & お役立ち資料まとめ〜 - ML_BearのKaggleな日常

                これはなに? デジタルマーケター 兼 プロダクトマネージャー 兼 データアナリスト (肩書長い…) の私が Kaggle に挑戦した約半年間の記録です。現時点で2つのコンペに真面目に取り組んで2つの銀メダル(入賞)を獲得出来ています。 Kaggle挑戦期間を通して、有識者の素晴らしい資料に助けられたのでとても感謝しています。同じような志を持つ方に自分の記録が少しでも役に立てばと思い、有用な資料のリンク集に私のKaggle参戦記ポエムをつけてまとめてみました。 自分の得意領域で勝負しようと思ってテーブルデータのコンペばかり選んでいるのでDeepLearning系の話は全然ないです、すみません。 目次 プロローグ Kaggleへの興味の芽生え 初参戦 → 即撤退 ガチ参戦に向けた修行 初ガチコンペデビュー 初ガチコンペ…、のはずが。 初ガチコンペ参戦 ベースモデル作成 特徴量エンジニアリング

                  Kaggle参戦記 〜入門からExpert獲得までの半年間の記録 & お役立ち資料まとめ〜 - ML_BearのKaggleな日常
                • DeNA他キュレーションメディアが起こした“事件”は、検索エンジンが資本主義に負けたということ。 - mediologic

                  この2〜3年、ネットの、特にメディアやプラットフォーム、広告に関わる世界は混乱状態がずっと続いていると言わざるをえない。例えば2014年はインフルエンサーマーケティングやブロガーマーケティングの界隈での「ステマ」騒動がもっとも騒がれた時期だし、続く2015年は「ノンクレジットタイアップ広告」なる広告表記(ディスクロージャー)のない”記事広告”が大きな話題となった。それ以前にも口コミマーケティングおける金銭・物品授受の問題などはWOMJなどで取り上げられていたし、いわゆるデジタルマーケティングやネット広告と呼ばれる世界において、どこどこのアドテク系ベンチャーが上場していくらの値がついただの、いくらいくらで買収されただの、あそこの会社はキラキラ系の美人社員が多いだの、華やかに見えるストーリーの裏側は、黒ないしはそこまでもいかないまでもグレーなビジネスが多数ある。もちろんまともなビジネスをしてい

                    DeNA他キュレーションメディアが起こした“事件”は、検索エンジンが資本主義に負けたということ。 - mediologic
                  • 科学を変えた10のコンピューターコード | Nature ダイジェスト | Nature Portfolio

                    Fortranからプレプリントアーカイブまで、プログラミングとプラットフォームの進歩は、生物学、気候科学、物理学を新たな高みへと導いた。 2019年、イベント・ホライズン・テレスコープ(EHT)のチームは、ブラックホールの実際の姿を初めて世界に見せてくれた。彼らが発表したリング状に輝く天体の画像は、従来の写真とは違い、計算によって得られたものだ。具体的には、米国、メキシコ、チリ、スペイン、南極点の電波望遠鏡が捉えたデータを数学的に変換することによって得られたのだ1。研究チームは、その知見を記載する論文とともに、ブラックホールの撮影に用いたプログラミングコードも公開した。科学コミュニティーが自分たちのやり方を確認し、それを足場にできるようにするためである。 このようなパターンは、ますます一般的になりつつある。天文学から動物学まで、現代のあらゆる偉大な科学的発見の背後にはコンピューターがある。

                      科学を変えた10のコンピューターコード | Nature ダイジェスト | Nature Portfolio
                    • 人工知能の歴史 AIを如何にして達成しようとしたか - HELLO CYBERNETICS

                      ※めちゃくちゃ長いです。一連の流れで読むと理解が深まると思います。自身の復習のためにも書き下しました。個々の章で完結しているので、それぞれ別の記事としても掲載しています。 近年は人工知能ブームが到来し、人工知能というワードを当たり前のように使う時代がやってきました。情報技術を学んでいる人にとって人工知能は、情報処理を効率的に行う素晴らしい技術の一つとして認識できるかと思います。一方で、技術的話題にあまり興味がない人にとっては、人工知能というワードに対して各々の解釈をして、時には誤解のような意見も見受けられます(人工知能の全容がハッキリしないうちは誤解というのはあまりにも強すぎる言い方ですが)。 人工知能がどういうものであるのかを知るには、人工知能を技術的にいかにして達成しようとしたかの歴史を知ることが一番であると思います。 ここでの記事の目的は技術的な観点からの人工知能について説明すること

                        人工知能の歴史 AIを如何にして達成しようとしたか - HELLO CYBERNETICS
                      • 深層強化学習でシステムトレードをやる時に役に立ちそうな資料まとめ - ニートの言葉

                        Photo via Visual Hunt 少し前のことですが、AlphaGoという囲碁の人工知能プログラムがイ・セドル九段に勝利したことで話題になりました。*1 また、一部のゲームにおいて「DQN(Deep Q-network)」が人間よりも上手くプレイするようになったというニュースも話題になっていましたね。*2 今回はこれらの事例で使われている「深層強化学習」という仕組みを使って、FXのシステムトレードができないかと思い、調べてみました。 注意:強化学習もFXも勉強し始めたばかりなので、色々間違っている箇所があるかもしれません。ご指摘いただけると幸いです。 今回の内容 1.強化学習について 1-1.強化学習 1-2.Reinforcement Learning: An Introduction (2nd Edition) 1-3.UCL Course on RL 1-4.強化学習につい

                          深層強化学習でシステムトレードをやる時に役に立ちそうな資料まとめ - ニートの言葉
                        • もはや人間と区別がつかない次元に。多言語で歌う機能も搭載したSynthesizer Vの破壊力|DTMステーション

                          驚異的に進化したSynthesizer V AI まずは、バックグラウンドや機能、性能といったものを紹介する前に、私がSynthesizer V Pro Studioの1.5.0を使って打ち込んだ、弦巻マキの歌声をちょっと聴いてみてください。 いかがですか?従来の歌声合成の概念を覆すレベルに来ていると思いませんか?これは、2年前のコミケでDTMステーションCreativeからリリースしたoyasumiという曲の冒頭部分。そのときは声優の小岩井ことりさんにボーカルをお願いし、囁くように優しく歌ってもらったので、弦巻マキにも、それっぽく歌わせて仕上げてみたのです。本来、弦巻マキは「アニメキャラっぽい雰囲気の元気な女の子」というイメージの歌声ですが、そことはだいぶ違ったニュアンスの歌声になっているのも感じられたと思います。 「自動処理」メニューにある「自動ピッチ調整(カスタマイズ)」を選択する

                            もはや人間と区別がつかない次元に。多言語で歌う機能も搭載したSynthesizer Vの破壊力|DTMステーション
                          • ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦

                            ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 2023.08.19 Updated by Ryo Shimizu on August 19, 2023, 16:47 pm JST そろそろ業界の最深部でしか知られてなかった事実がニュースになって来始めているのでここで本当の問題を明らかにしておきたい。 AI開発に必須なのは、計算資源である。そしてこれは現在のところ、事実上NVIDIAが一社独占している。 NVIDIA以外の半導体がいくら「AIに特化しています」と能書きを垂れていてもごくわずかな例外を除いてはほとんど全部が誇大広告である。 たとえばApple Silliconは、「ニューラルエンジン」と称するモジュールを内蔵しているが、これを使ってAIの学習をすると、なんとCPUよりも遅い。信じられないかもしれないが、これが残酷な事実なのである

                              ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦
                            • 小室哲哉さん “3人の小室哲哉”が議論していたヒット曲の裏側 | NHK

                              音楽家・小室哲哉さん。誰もが歌えるヒット曲を数多く生み出してきた、その頭の中では、「哲哉くん、小室さん、てっちゃん」という、作詞・作曲・編曲をする“3人の小室哲哉”が議論していたと言います。小室さんは、ことし、理化学研究所の客員主管研究員に就任、AIを活用した音楽制作に取り組むなど、新たな挑戦に乗り出しています。いまの音楽をどう見つめ、どんな音楽をこれから届けようとしているのでしょうか。 (聞き手:廣瀬智美アナウンサー、取材:小松宏司アナウンサー) 鍵盤に触れたくなかった時期も 2018年に引退を宣言した小室さん。しかし、去年10月、「今、しばらく音楽をやらせて下さい。」と自身のSNSアカウントに直筆のメッセージを掲載。復活を宣言しました。ことしは、所属するグループ、TM NETWORKのツアーを行ったほか、今月には、オーケストラと共演するコンサートも予定されているなど、精力的に活動してい

                                小室哲哉さん “3人の小室哲哉”が議論していたヒット曲の裏側 | NHK
                              • 一太郎2017が同人小説屋を狙い撃ってきて、手厚い保護をしてくれている件

                                ライフハッカー[日本版] @lifehackerjapan 日本語変換ソフトが誤変換を繰り返すと、思いのほか文章を書くのに時間がかかってしまいます。良いIMEを見つけるのも文書作成を効率化する方法の1つです。例えば、「ATOK」も変換性能に定評があります。新バージョンでは、ディープラーニングを利用し写真のような誤変換を30%削減したそう。 pic.twitter.com/BQmMWPmYhD 2016-12-01 16:55:01

                                  一太郎2017が同人小説屋を狙い撃ってきて、手厚い保護をしてくれている件
                                • Mojoは「C言語のように速いPython」なのか - k0kubun's blog

                                  LLVMやSwiftを作ったChris LattnerがCEOをやっている会社が、Pythonの使用感とC言語並の性能を併せ持つ言語としてMojoをアナウンスした。 まだ手元で試せる状態でリリースされてはいないが、最大35000倍Pythonより速いという。 Mojo🔥 combines the usability of Python with the performance of C, unlocking unparalleled programmability of AI hardware and extensibility of AI models. Also, it's up to 35000x faster than Python 🤯 and … deploys 🏎 pic.twitter.com/tjT09U4F80— Modular (@Modular_AI) May

                                    Mojoは「C言語のように速いPython」なのか - k0kubun's blog
                                  • 人工知能で白黒写真をカラーに 早大が技術開発、GitHubでコード公開

                                    早稲田大学の研究グループはこのほど、ディープラーニングを応用し、白黒写真を自然な色に自動彩色する手法を確立したと発表した。プログラムのソースコードをGitHubで公開している。 新技術は、大量の白黒・カラー画像の組から、色づけの手がかりとなる特徴をディープラーニングにより学習し、その特徴を使って白黒画像をカラーに変換する技術。従来、白黒写真の色づけには人手が必要だったが、新技術なら全自動で彩色できる。 画像全体から抽出する「大域特徴」と、小さな領域から算出する「局所特徴」を結びつけて利用することで、画像全体を考慮した自然な色づけができるという。 大域特徴からは、屋内か屋外か、昼か夜かなど画像全体の情報を得、局所特徴からは、水か砂か葉かなど物体の質感を判断し、その領域をどう色づけするかが最も適当か推測。この組み合わせにより、夕暮れの空や人の肌など、状況に合った自然な色づけが可能になったという

                                      人工知能で白黒写真をカラーに 早大が技術開発、GitHubでコード公開
                                    • Googleの公開した人工知能ライブラリTensorFlowを触ってみた - LIFULL Creators Blog

                                      こんにちは。おうちハッカーの石田です。 いつもはおうちハックネタばかりですが、今日は人工知能関連の話題です。 今日2015/11/10、Googleが自社サービスで使っているDeepLearningを始めとする機械学習技術のライブラリを公開しました。 TensorFlowという名前で、おそらくテンソルフローと呼びます。 テンソルは、数学の線形の量を表す概念で、ベクトルの親戚みたいなものです。それにフローをつけるということは、そういった複雑な多次元ベクトル量を流れるように処理できる、という意味が込められているのだと思います。 こちらをさっそく触ってみたので、紹介したいと思います。 TensorFlowの特徴 公式紹介ページから特徴をいくつかピックアップします。 Deep Flexibility ~深い柔軟性~ 要望に応じて、柔軟にニューラルネットワークを構築できます。ニューラルネットワークの

                                        Googleの公開した人工知能ライブラリTensorFlowを触ってみた - LIFULL Creators Blog
                                      • AlphaGoが誇大広告ぎみな件 - A級リーグ指し手1号

                                        Googleが開発した囲碁ソフトのAlphaGoが、世界で初めてプロ棋士に勝ったコンピュータとして大きなニュースになっています。Nature誌に論文が掲載されたのですが、仔細に読むといくつか不可解な点がありましたので、調査・考察してみました。 AlphaGoの論文はこちらから見えます。プロ棋士に勝ったこともありますが、何よりコンピュータ囲碁開発者(及び隣の分野のコンピュータ将棋開発者)を驚かせたのは、「既存の他の囲碁プログラムと対戦させた結果、495戦494勝だった」との報告でした。この報告は衝撃的で、これを読んだ他のコンピュータ囲碁開発者たちからは「俺の今までの努力が否定された」「目標を見失ってしまった」などの悲嘆の発言が相次ぐ始末でした。 論文から、AlphaGo、対戦相手のプロ棋士、及び他のソフトのレーティングを示したグラフを引用します。 CrazyStoneとZenはこれまでは最強

                                          AlphaGoが誇大広告ぎみな件 - A級リーグ指し手1号
                                        • 無料で読める「機械学習/ディープラーニング」の有名書籍! 厳選4冊

                                          本稿は、2020年7月27日に公開した記事を、2022年7月5日の最新情報に合わせて改訂したものです。各項目の内容をアップデートし、無料ではなくなった『Deep Learning with PyTorch』をカットした代わりにベストセラーである『An Introduction to Statistical Learning』を追記しました。

                                            無料で読める「機械学習/ディープラーニング」の有名書籍! 厳選4冊
                                          • 2017年のディープラーニング論文100選 - Qiita

                                            これはFujitsu Advent Calendar 2017の18日目の記事です。 掲載内容は富士通グループを代表するものではありません。ただし、これまでの取り組みが評価されて、富士通がQiitaに正式参加することになりました[リンク]。なお、内容の正確性には注意を払っていますが、無保証です。 はじめに この記事では今年発表されたディープラーニング論文(ArXivでの発表時期、発表された国際会議が2017年開催またはジャーナル掲載が2017年のもの)から私が個人的に重要だと思った論文を収集しています。また、2016年末ごろの論文も重要なものは採用しています。 以下の投稿も合わせてご覧ください。 2016年のディープラーニング論文100選[リンク] ディープラーニングにとっての2017年 2017年のディープラーニング技術は主に画像系技術で革新的な進歩がありました。それをけん引したのは敵対

                                              2017年のディープラーニング論文100選 - Qiita
                                            • GPT-3を使って自分だけのAIアシスタントを作る第一歩 - Taste of Tech Topics

                                              皆さんこんにちは。健康診断の結果がちょっと気になる年齢になってきたSsk1029Takashiです。 GPT-3を扱ってチャットボット作ってみる記事の第2弾になります。 第1弾のこちらもぜひご覧ください。 acro-engineer.hatenablog.com 前回は質問応答システムとしてGPT-3を活用しましたが、今回はAIアシスタントとしてGPT-3を活用してみます。 AIアシスタントとは何かというと、Google Homeのように命令を入力すると、それに沿った処理を実行してくれるシステムを指します。 ChatGPTとの違いは命令の結果は必ずしも文章生成だけではないということです。 ChatGPTでは文字列を入れて、要求に沿った文字列を返します。 対して、AIアシスタントでは、カレンダーに予定を入力したり、アラームを設定したりなど、具体的なタスクを実行します。 この記事では、前回に続

                                                GPT-3を使って自分だけのAIアシスタントを作る第一歩 - Taste of Tech Topics
                                              • すごい人達呼んで「Webは死ぬか?」をマジメに語り合ってもらった-前編- | HTML5Experts.jp

                                                【及川卓也・清水亮・羽田野太巳・藤村厚夫】すごい人達呼んで「Webは死ぬか?」をマジメに語り合ってもらった(前編) 白石 俊平(HTML5 Experts.jp編集長) 今また、「Webの死」を予言する論調をそこここに見かけます。モバイルやウェアラブルといった新たなコンテキストが、プラットフォームネイティブな技術の優位性を後押ししているだけではなく、Webコンテンツの消費の仕方を大きく変え、Web上で成り立っていたビジネスモデルをも脅かしつつあります。 本当にWebはヤバいのか、気になってしょうがないので、スゴい人たちに集まってもらって、「Webは死ぬか」について語り合っていただきました。Webを取り巻く様々な論点を包括的に議論でき、貴重な場になったのではないかと自負しております。 Webに関わる人にとっては必読の対談だと思います!でもこの記事、長くて濃いので、心してかかってくださいね:-

                                                  すごい人達呼んで「Webは死ぬか?」をマジメに語り合ってもらった-前編- | HTML5Experts.jp
                                                • 教師なし学習は機械翻訳に魔法をかけるか? - ディープラーニングブログ

                                                  つい先週,機械翻訳で驚くべき進展がありました. 教師なし機械翻訳がヤバい進化を遂げててびっくりした.たった半年でBLEUスコアを15から25に改善したのブレイクスルーでは?https://t.co/SVQlYYu2Pt 教師なし学習でこのクオリティの機械翻訳できるのまじで感動するし,ちょっと語っていい? pic.twitter.com/fBllGtTkgb— Ryobot | りょぼっと (@_Ryobot) 2018年4月23日 要約すると教師なし学習でもひと昔前の教師あり学習の機械翻訳に匹敵する性能を獲得できたというのです.この記事では機械翻訳を知らない初心者にもわかるように魔法のような教師なし機械翻訳の仕組みを説明したいと思います. 教師あり学習の限界 機械翻訳はディープラーニングを適用することで急激に進歩した分野の1つだと思います.Google 翻訳はニューラル機械翻訳を導入するこ

                                                    教師なし学習は機械翻訳に魔法をかけるか? - ディープラーニングブログ
                                                  • 韓国トップの囲碁棋士引退「努力してもAIには勝てない」 | NHKニュース

                                                    AI=人工知能を活用した囲碁のコンピュータープログラムと対局して1勝を挙げた韓国のトップ棋士が引退を表明し、引退の理由について、「AIが登場したことで、どんなに努力してもトップになれないことが分かった」と語りました。 イ九段はこの中で、引退の理由について、「AIが登場したことで、どんなに努力してもトップになれないことが分かった。決して敗れない存在がある」と語り、囲碁のAIに勝てないことを引退の理由に挙げました。 国際的なタイトルを数多く持つイ九段は、2016年、IT大手グーグルの傘下にある企業が開発した囲碁のAI、「AlphaGo」と5番勝負の対局を行い、4敗を喫しながらも1勝を挙げましたが、これ以降、AlphaGoに勝った棋士はいません。 将棋やチェスに比べて、対局のパターンが多い囲碁では、AIが人間に勝つのは難しいとされていましたが、ディープラーニングの手法によって飛躍的に進化し、AI

                                                      韓国トップの囲碁棋士引退「努力してもAIには勝てない」 | NHKニュース
                                                    • 連休中に「ディープラーニングの数学」と「身近な数学」と「Google Colaboratory(Python)」でじっくり数学を復習しました - karaage. [からあげ]

                                                      「最短コースでわかる ディープラーニングの数学」「身近な数学」を読む GW(ゴールデンウィーク)中は日経BPさんから献本いただいた「最短コースでわかる ディープラーニングの数学」(以降ディープラーニングの数学)と、ほけきよ(id:imslotter)さんから献本いただいた「身近な数学」と数学と名のつく本2冊をじっくり読みました。 全然違う繋がりで献本いただいた両本ですが、奇しくも同じ「数学」というキーワードがタイトルにあるということで、大胆にもまとめて書評を書いてみたいと思います(笑) また、両者とも付録として、内容の理解を深めるためのPythonコードがGitHubで公開されているのですが「Google Colaboratory」(以降Google Colab)を使うことで、Python環境を構築することなく、手軽にコードを実行できることが分かったので、その活用方法も合わせて紹介しようと

                                                        連休中に「ディープラーニングの数学」と「身近な数学」と「Google Colaboratory(Python)」でじっくり数学を復習しました - karaage. [からあげ]
                                                      • ディープラーニングを小学生でも使えるようにしてみる

                                                        ディープラーニングを小学生でも使えるようにしてみる Trial to make easy to use deep learned neural network 2015.06.30 Updated by Ryo Shimizu on June 30, 2015, 06:59 am JST この一ヶ月で、ディープラーニングが急激に使いやすくなってきています。 Google傘下のディープラーニング研究グループDeep Mindでインターンをしているスタンフォード大学の学生はこんな台詞をツイートしています。 「ディープラーニングに関して、新しくクールな論文が発表される速度は、それを読める速度より速い」 それこそ毎日のようにディープラーニングに関する何らかの新しい話題が出てきます。 それくらい、ディープラーニングは盛り上がっているのです。 「人工知能は人間を超えるか」を記した東京大学の松尾豊先生に

                                                          ディープラーニングを小学生でも使えるようにしてみる
                                                        • マルコフ連鎖を使ってブログの記事を自動生成してみた - karaage. [からあげ]

                                                          マルコフ連鎖による文章自動生成 ちょっと文章の自動生成に興味が湧いたので、試してみることにしました。まずは事前調査したところ、既にやっている例がたくさんみつかりました。記事末の参考リンクにまとめましたので興味ある方は参照ください。Deep Learningやマルコフ連鎖を使うのがトレンド(?)のようです。本当はDeep Learningでやってみたかったのですが、何度か環境変えてチャレンジしたのですが、悉くエラーが出て失敗したため(chainerのバージョンアップの影響?)、諦めてマルコフ連鎖で実現することにしました。マルコフ連鎖に関してはここでは詳細は説明しませんので、興味ある方は自分で調べてみて下さい。自分もちゃんと理解できませんでした。イメージ的には、元となる文章の文章の流れのようなものを解析して、その解析した流れを元に、ある単語から順番に連想ゲームのように単語を並べていって文章を生

                                                            マルコフ連鎖を使ってブログの記事を自動生成してみた - karaage. [からあげ]
                                                          • 千葉の高専生、ハッカソンで最優秀賞 「量子コンピューターでお手軽機械学習」とは:朝日新聞GLOBE+

                                                            越智優真さん。最近ギターを始め、軽音楽部にも入った。機械学習の勉強は「一日2時間ぐらい」という=木更津高専で、藤田明人撮影 木更津工業高等専門学校(千葉県木更津市)情報工学科に今春入学した越智優真さんは、4月、「Fixstars Amplifyハッカソン」(株式会社フィックスターズ主催)で、応募71作品の中で最優秀賞に輝いた。応募したのは中学3年のとき。他の応募者は、東大、東工大、早稲田大、慶応大、東北大などで専門領域を学ぶ大学生や大学院生が多く、越智さんの活躍は注目を集めた。 越智さんが応募したプログラムとアイデアの題名は、「浅(くて広い)層学習 少データでお手軽機械学習」だ。 機械学習は、人工知能(AI)が自分で物事を学ぶための技術だ。その一つとして「深層学習(ディープラーニング)」があり、画像認識、音声認識、文章の要約、翻訳など幅広い分野への応用が期待されている。 深層学習は一般に、

                                                              千葉の高専生、ハッカソンで最優秀賞 「量子コンピューターでお手軽機械学習」とは:朝日新聞GLOBE+
                                                            • 「電王戦」5年間で人類は何を目撃した? 気鋭の文化人類学者と振り返るAIとの激闘史。そしてAI以降の“人間”とは?【一橋大学准教授・久保明教氏インタビュー】

                                                              (画像は第2期 電王戦の公式サイトより) 今週土曜、「佐藤天彦叡王 vs Ponanza」の対局をもって、様々な名勝負を生み出してきた「電王戦」の歴史が遂に終わりを告げる。 第一回電王戦で、米長永世棋聖と将棋ソフト「ボンクラーズ」が対局したのは、2012年の1月。開始当時を思い返せば、そもそも棋士とAIが公開の場で戦う行為そのものが「衝撃的」であり、さまざまな物議を醸していた。 ※「電王戦」終了の理由については、上記PVの中で説明がなされている。また、第2期電王戦記者発表会の席上で、ドワンゴ川上量生会長が「人間とコンピューターが同じルールで真剣勝負をするスタイルの現状の電王戦は、歴史的役割は終わったと考えて、今回で終了することに致しました」と発言してもいる。 それから5年――今やすっかり状況は変わった。ビジネス誌には「AIが人類の職業を奪う」などのセンセーショナルな見出しが躍り、昨年はGo

                                                                「電王戦」5年間で人類は何を目撃した? 気鋭の文化人類学者と振り返るAIとの激闘史。そしてAI以降の“人間”とは?【一橋大学准教授・久保明教氏インタビュー】
                                                              • 技術的特異点 - Wikipedia

                                                                人工知能ブームに伴い、人類と人工知能の関係や「シンギュラリティ」(特異点)について多様な主張や報道が行われ、期待が高まっているが、2045年に到来するとの予測が主張されている技術的特異点には、その根拠について多くの問題点が指摘されている。 指摘の例 2020年頃にムーアの法則は限界に達すると言われており、その後のコンピュータの性能向上速度は不明である。従来型のコンピュータを大幅に上回る性能を期待して考案された量子コンピュータや光コンピュータは、未だ初歩的な研究段階に留まっており、実用性については不明瞭である。 人工知能への大きな期待とは裏腹に、ビジネスモデルの構築が進んでいない。特に現行の人工知能では高品質で偏りがなく整理されたビッグデータを前提としているため、実環境からの十分なデータ収集が困難であることも多く、人工知能を導入できない状況が発生している[11]。また、人工知能開発を担える人

                                                                • 「AIが仕事を奪う」への疑問 いま、“本当に怖がるべきこと”は

                                                                  「人工知能が原因で失業する」。しばしば、AIはこうした脅威論の文脈で語られることがある。AIは本当にそこまで怖いものなのだろうか。 「人工知能(AI)が原因で失業する」と信じている人は大勢います。では私たちの周りに、人工知能に仕事を奪われた人は居るでしょうか? 少なくとも、今の所は私の周りにはいません。もしかして私たちは、居るはずのない幽霊にただおびえているのではないでしょうか。 そのような怪談が語られ始めたのは、第3次人工知能ブームが始まった2013年ごろと記憶しています。英オックスフォード大学のマイケル・A・オズボーン准教授らが著した「THE FUTURE OF EMPLOYMENT:HOW SUSCEPTIBLE ARE JOBS TO COMPUTERISATION? 」という論文に書かれた「10~20年以内に労働人口の47%が機械に代替されるリスクがある」という主題が引き金を引き

                                                                    「AIが仕事を奪う」への疑問 いま、“本当に怖がるべきこと”は
                                                                  • 誰も読めない謎の古文書!『ヴォイニッチ写本』研究の最前線を慶應義塾大学で聞いてきた。 - ライブドアニュース

                                                                    1912年、古本屋業を営んでいたウィルフリッド・ヴォイニッチは、イタリアの寺院で奇妙な本を見つけた。 そこには、どこの国のものでもない言語がびっしりと書き記されている。文字に添えられた植物のイラストもまた、現実の世界には存在しないものばかり。 放射性炭素年代測定によると、15世紀に書かれた文書であるらしい。だが、発見から100年以上が経った今も、何が書かれているのかは不明のまま。世界の大いなる謎として語り継がれ、オカルト的な関心を集め続けてきた奇書。 それが「ヴォイニッチ写本」である。 これまで何度も「解読に成功した!」という報告がなされてきた。しかし、しばらくすると「あの研究結果は間違っている!」「今度こそ解読した!」などという報告が別のところから流れてくる。情報が錯綜し、一向に真相のつかみどころのない謎多き文書である。 しかしなんと、そんなヴォイニッチ写本に関する最先端の研究を行う人物

                                                                      誰も読めない謎の古文書!『ヴォイニッチ写本』研究の最前線を慶應義塾大学で聞いてきた。 - ライブドアニュース
                                                                    • クリエイターの時代

                                                                      クリエイターの時代 2023.03.11 Updated by Ryo Shimizu on March 11, 2023, 15:48 pm JST ChatGPTが流行り過ぎている。 来週にはGPT-4が出るという話になっていて、しかもGPT-3は1750億パラメータであるのに対し、GPT-4は100兆パラメータと言われている。 普通に考えて単位が桁違いにおかしいのだが、そもそもそんなに巨大なニューラルネットワークが学習できてしまったことも驚きだが、実用的に使うためには信じられないくらい大規模な機械が必要になる。 まだ出てもいないGPT-4を警戒しても仕方ないので、むしろGPT-4が出る前の今のタイミングだからこそ、敢えて「ChatGPTブームの終わりは近い」と予測してみたい。 なぜか? 第一に、ChatGPTは、簡単に使え過ぎてしまう。 朝思いついて昼には新しいアプリができてしまう。

                                                                        クリエイターの時代
                                                                      • 2016年のディープラーニング論文100選 - Qiita

                                                                        これはFujitsu Advent Calendar 2016の11日目の記事です。 掲載内容は個人の意見・見解であり、富士通グループを代表するものではありません。なお、内容の正確性には注意を払っていますが無保証です。 はじめに この記事では先月今年発表されたディープラーニング論文(ArXivでの発表時期、発表された国際会議が2016年開催またはジャーナル掲載が2016年のもの)から私が個人的に重要だと思った論文を収集しています。また、2015年末ごろの論文も重要なものは採用しています。 以下の投稿も合わせてご覧ください。 2017年のディープラーニング論文100選 DeepLearning研究 2016年のまとめ 2016年の深層学習を用いた画像認識モデル foobarNet: ディープラーニング関連の○○Netまとめ NIPS2016実装集 ディープラーニングにとっての2016年 20

                                                                          2016年のディープラーニング論文100選 - Qiita
                                                                        • ディープラーニング-畳み込みニューラルネットワークとPythonによる特徴抽出 | POSTD

                                                                          • Intelが激安1万円以下のUSB型ディープラーニング用端末「Movidius Neural Compute Stick」を発売

                                                                            IntelがUSB接続タイプのスティック型ディープニューラルネットワーク処理用アクセラレータ「Movidius Neural Compute Stick」を発表しました。画像処理やAI技術をクラウドではなくローカル環境で手軽に開発できることが期待されています。 Movidius | Intel Newsroom https://newsroom.intel.com/press-kits/movidius/ Intel Democratizes Deep Learning Application Development with Launch of Movidius Neural Compute Stick | Intel Newsroom https://newsroom.intel.com/news/intel-democratizes-deep-learning-application

                                                                              Intelが激安1万円以下のUSB型ディープラーニング用端末「Movidius Neural Compute Stick」を発売
                                                                            • 【Day 2】東大松尾研のLLM講座資料が公開されたから、詳しく読んでいくよ【備忘録】 - Qiita

                                                                              自己紹介 データサイエンティストを目指して日々勉強している、慶應大学理工学部4年生(202.01.09時点) 取得資格、コンペ優勝経験など、リアルタイムの情報は👇👇👇をみてね X: @A7_data←普段はXで活動しています。ありがたいことに、フォロワーは6500人を超えました😌 プロフィールページ👇👇👇 X👇👇👇 Day2の概要 Day2のテーマは「Prompting and Augmented Language Model」ということで、LLMの活用法に焦点が当てられている。(学習済みLLMを追加学習なしで活用する技術について) 項目としては大きく3つ。 プロンプティングや文脈内学習とは何か プロンプティングによる性能改善方法 Augmented Language Modelの概要 LLMの使い方に焦点を絞っているので、今回の授業だけでも幅広い人に役立ちそう。 言語

                                                                                【Day 2】東大松尾研のLLM講座資料が公開されたから、詳しく読んでいくよ【備忘録】 - Qiita
                                                                              • 「量子」と組合せ最適化に関する怪しい言説 ―とある研究者の小言― - むしゃくしゃしてやった,今は反省している日記

                                                                                最近,量子コンピュータの話題をニュースや新聞で見かけることが増えてきました. その中で気になってきたのが,組合せ最適化と量子コンピュータ(特に量子アニーリング)に関する怪しい言説.私自身は(古典コンピュータでの)組合せ最適化の研究をやってきて,量子コンピュータを研究しているわけではないのですが,さすがにこれはちょっと・・・と思う言説を何回か見かけてきました. 最近の「量子」に対する過熱ぶりは凄まじいので,こういう怪しい言説が広まるのは困りものです.すでにTwitter上には,“組合せ最適化は今のコンピュータでは解けない”とか“でも量子なら一瞬で解ける”という勘違いをしてしまっている人が多数見られます*1. さすがに危機感を覚えてきたので,この場できちんと指摘しておくことにしました. 今北産業(TL;DR) “古典コンピュータは組合せ最適化を解けない” → 古典コンピュータで組合せ最適化を解

                                                                                  「量子」と組合せ最適化に関する怪しい言説 ―とある研究者の小言― - むしゃくしゃしてやった,今は反省している日記
                                                                                • 「あとで読む」タグで振り返る2022年 〜今年の「あとで読む」、今年のうちに〜 - はてなブックマーク開発ブログ

                                                                                  今年も残すところあと少し。皆さんにとって、2022年はどのような一年でしたか? はてなブックマークでは今年もたくさんのエントリーがブックマークされ、コメント欄も盛り上がりました。 データで見る「あとで読む」 年末ということで、去年に引き続き今年も「あとで読む」タグにフォーカスしたデータを集計しました。 全ブックマークを対象にした「あとで読む」率、カテゴリー別「あとで読む」率、「あとで読む」が多いエントリーランキングを通して、2022年のはてなブックマークを振り返ってみましょう。 全ブックマークを対象にした「あとで読む」 率 カテゴリー別 「あとで読む」 率 「あとで読む」 タグが多いエントリーは? トップ10ランキング 「あとで読む」タグの数が多かったエントリーランキング カテゴリー別「あとで読む」率の高かったエントリーランキング 気になった記事を気軽に保存できる「あとで読む」機能 202

                                                                                    「あとで読む」タグで振り返る2022年 〜今年の「あとで読む」、今年のうちに〜 - はてなブックマーク開発ブログ