並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 237件

新着順 人気順

chainerの検索結果81 - 120 件 / 237件

  • AI女子、無料GPUでYOLO v3はじめました。 - Qiita

    はじめに AIスタートアップでWEBアプリ開発をやりながら、pythonとAIを勉強中です。 画像認識でやりたいことがあり、まずは開発環境の構築とアルゴリズムを使ってみるところまでを実践しました。 今回やりたいこと YOLOv3を使う 無料でGPUを使う YOLOとは 物体検出アルゴリズムのうちの1つです。(物体検出は他にFaster R-CNNやSSDなどのアルゴリズムがあります。) YOLOの特徴は、速くて高精度なことで、現在v3が最新バージョンです。 今回ニューラルネットフレームワークはDarknetを使ます。(フレームワークは他に、TensorflowやChainer、Caffeなどがあります。) ちなみに、YOLOはYou only look onceの略で、You only live once(人生一度きり)をもじっているそうです。 YOLOで物体検出する Darknetのイン

      AI女子、無料GPUでYOLO v3はじめました。 - Qiita
    • 2019年 PFN夏季インターンシップのコーディング課題公開 - Preferred Networks Research & Development

      Preferred Networks 2019 夏季インターンシップの選考で用いたコーディング課題を github 上で公開しました。 https://github.com/pfnet/intern-coding-tasks PFN 楠本です。PFN では毎年8月9月の夏季休暇に約2ヶ月間の長期インターンシップを行っています。コーディング課題はその選考で応募者のプログラミング能力や問題解決能力を見るために出題させて頂いているものです。今年は「機械学習・数理」「バックエンド」「フロントエンド」「チップ」「性能最適化」「コンピュータービジョン(Chainer)」の6種類のコーディング課題を用意し、応募者の希望テーマに応じてこのうちのいずれかを解いていただく形にしていました。 今年のインターンシップでは去年をさらに上回る数の応募を頂きました。PFN では来年以降もインターンシップを開催する予定で

        2019年 PFN夏季インターンシップのコーディング課題公開 - Preferred Networks Research & Development
      • JAX/Flaxを使ってMNISTを学習させてみる | TC3株式会社|GIG INNOVATED.

        本記事は20分程度でお読みいただけます。 こんにちは。TC3データサイエンス部門の梅本です。 普段はPyTorchを使っているのですが、新しいライブラリを触るのも勉強になると思いますので、今日は新進気鋭の深層学習ライブラリであるJAX/Flaxを使って、MNISTを学習させてみようと思います。 はじめに 皆さんご存知の通り、TensorFlow、Keras、PyTorch(Chainer…)と近年は様々な深層学習ライブラリが使われています。最近、JAXというライブラリが話題になっているものの、十分すぎるライブラリがある中でなぜJAXが新たに出てきたのでしょうか?(そしてなぜ使うべきなのか)。この理由には後発ライブラリの強みとして、先行ライブラリの問題点を改良しているという点が挙げられます。現状以下のような利点が挙げられます XLAコンパイルによる高速性 厳密な乱数の管理による再現性の担保

          JAX/Flaxを使ってMNISTを学習させてみる | TC3株式会社|GIG INNOVATED.
        • 【StyleGAN入門】「ある男性の生涯」で遊んでみた♬ - Qiita

          はっきり言ってExampleを利用するだけで、よく流れている動画(男性⇒女性とかの変換)はすぐ再現出来、やってみるとほんとに凄い。 今回は、その一番の入り口だけやってみての紹介記事です。 参考は以下のとおりです。 【参考】 ①StyleGANを使ってみた ②StyleGanで福沢諭吉を混ぜてみる ③Puzer/stylegan-encoder ④NVlabs/stylegan 現在、styleGAN2も出ているようですが、まずはStyleGANの最初の一歩をやってみて、実感を持ちたいと思います。 その結果、ほぼ1日で以下の動画が作成できたので、気になったところを記事にしておきます。 ※老人~幼児~老人に変化するものも作成しましたが、$512^2$でも10MB超えてしまいました やったこと ・環境 ・pretrained_example.pyを動かす ・潜在空間を動かす ・Gifアニメーショ

            【StyleGAN入門】「ある男性の生涯」で遊んでみた♬ - Qiita
          • Inpaintingからディープラーニング、最新のGAN事情について学べる本を書いた - Qiita

            3~4ヶ月かけてA4・195ページの薄くない薄い本を書きました。タイトルは『モザイク除去から学ぶ 最先端のディープラーニング』です。TensorFlow2.0全対応です。 Inpaintingとは 画像の一部を塗りつぶしてもっともらしく画像を復元するタスク。画像全体ではなく、白く塗りつぶした部分の生成を目標とします。 画像:https://github.com/JiahuiYu/generative_inpaintingより 関連: * GLCICで無かったことにしたいアレコレ(GANを使った画像生成を Globally and Locally Consistent Image Completion で理解してみる) * 【論文読み】Image Inpainting for Irregular Holes Using Partial Convolutions ※Inpaintingという言

              Inpaintingからディープラーニング、最新のGAN事情について学べる本を書いた - Qiita
            • Amazon SageMaker の体験ハンズオン動画とQAを公開しました | Amazon Web Services

              Amazon Web Services ブログ Amazon SageMaker の体験ハンズオン動画とQAを公開しました 先日 (2019/5/17) 開催しました 「Amazon SageMaker 機械学習エンジニア向け体験ハンズオン」の動画および資料を公開しました。当日、参加者の皆様から多数頂いた QA についても掲載しています。 Amazon SageMaker は、データサイエンティストやエンジニアが効率よく機械学習を進めるために、 AWS が提供するマネージドサービスです。この動画はSageMakerの基本的な使い方を体験できる1時間のハンズオン動画となっており、動画を見ながら実際に手を動かすことで、SageMakerの利用法を効率よく理解することができます。これからSageMakerを利用して機械学習に取り組む際にはAWS Black Belt オンラインセミナーと合わせて

                Amazon SageMaker の体験ハンズオン動画とQAを公開しました | Amazon Web Services
              • アフレルとPreferred Networks、共同開発によるプログラミング教材 「実践!Chainerとロボットで学ぶディープラーニング」を公開 - 株式会社Preferred Networks

                アフレルとPreferred Networks、共同開発によるプログラミング教材 「実践!Chainerとロボットで学ぶディープラーニング」を公開 株式会社アフレル(本社:福井県福井市、代表取締役社長:小林靖英、以下「アフレル」)と株式会社Preferred Networks(本社:東京都千代田区、代表取締役社長:西川徹、プリファードネットワークス、以下「PFN」)は、深層学習(ディープラーニング)技術の学習機会の提供および実務領域への活用促進を目的に、ロボットカーを動かしながら深層学習技術の基礎知識を学ぶことのできる、実践的なプログラミング教材「実践!Chainerとロボットで学ぶディープラーニング」を共同開発しました。 この教材は本日よりWEB (https://ai.afrel.co.jp/chainer.html) にて無料公開しています。 AIのビジネス活用が大きな注目を集める一

                  アフレルとPreferred Networks、共同開発によるプログラミング教材 「実践!Chainerとロボットで学ぶディープラーニング」を公開 - 株式会社Preferred Networks
                • キカガクで一番人気の『脱ブラックボックスコース』に完全版が登場&全編無料で公開決定!の裏話 - Qiita

                  はじめに メリークリスマス! 株式会社キカガク 代表取締役の吉崎です。 こうやって Qiita に記事を投稿するのがなんと『2年ぶり』です。 月日の流れは早いものです。 では、さっそく本題から。 みなさん、大変長らくお待たせしました!!!!! 2017 年に皆さんご存知の Udemy で公開以来、なんと Udemy だけでも 38,000人以上の方が受講してくださったキカガク流『脱ブラックボックスコース』。 微分から単回帰分析まで扱う初級編と、線形代数から重回帰分析まで扱う中級編まではスムーズにリリースしており、中級編の最後に『上級編も近々...』なんて言いつつ、大変申し訳ありません! ...実は仕事をサボってました。 なんてことはないのですが、今回のコース紹介後に書く裏話にある葛藤があり、なかなかリリースができていませんでした。 そんな心苦しい思いは今日でおさらばです。 みなさん、大変お

                    キカガクで一番人気の『脱ブラックボックスコース』に完全版が登場&全編無料で公開決定!の裏話 - Qiita
                  • PythonでつながるAIの世界 | Japan Innovation Review powered by JBpress

                    コンピュータ言語を詳しく知らなくても、その役割や位置づけを知っておくことは、AI企業との共創で力になるだろう。ここではPython言語(以下、Python)を通じて現在のAI分野の全体像を大まかに整理してみよう。 オープンイノベーションの取り組みとして注目を集めるAI分野 平成から令和へ、時代の区切りが新しくなっても引き続き人工知能(AI:Artificial Intelligence)の分野は盛況が続いている。一方、昨年のガートナージャパンの発表によれば、AIは技術用語として黎明期から「過度な期待」のピーク期を過ぎ、幻滅期に入ったとされる。しかし、これはAIが技術の特別なトレンドではなく、逆に企業が取り組むべき通常の課題になったことを示すともいえるだろう。実際、TRI-AD/Maxarテクノロジーズ/NTTデータによる自動運転車用の地図生成、ファナックとPrefferred Networ

                      PythonでつながるAIの世界 | Japan Innovation Review powered by JBpress
                    • 注目のディープラーニングフレームワーク「PyTorch」入門 - karaage. [からあげ]

                      PyTorchに注目が集まっている 最近「PyTorch」熱を感じます。日本のAIベンチャーの雄であるPFNが「Chainer」から「PyTorch」に移行しましたし、つい先日も、著名なAI研究団体のOpenAIがメインのフレームワークをPyTorchにすることを発表し、この勢いは続きそうですね。 周りでもPyTorchを使い始めている人が多いように思います。それを裏付けるようにVengineerさんのアンケートでも「現在使っているディープラーニングフレームワーク」が堂々の1位となっていました(TensorFlowとKerasを合計すると、やはりTensorFlow+Kerasが強いのですが)。 現在使っているディープラーニングフレームワークってなんですか?— Vengineer@師走は映画三昧。 (@Vengineer) October 20, 2019 というわけで、ミーハーな私もPy

                        注目のディープラーニングフレームワーク「PyTorch」入門 - karaage. [からあげ]
                      • SushiGAN2 〜この寿司は実在しません〜 - Qiita

                        はじめに 2年ほど前,私はGANというものに出会って感銘を受け,Qiitaで『SushiGAN 〜人工知能は寿司を握れるか?〜』というちょっと釣りっぽいタイトルの記事を書きました.中身はChainerのexampleにあったDCGANの実装を寿司の画像で学習させてみるというもので,下のようなモード崩壊気味の寿司画像を作って満足していました. あれから2年あまりが経ち,画像生成の技術は驚くべき発展を遂げました1.StyleGAN,そしてStyleGAN2が登場し,すぐには見分けがつかないほどの品質で1024x1024の人の顔の画像が生成できるようになりました [1].そのインパクトは凄まじく,"This Person Does Not Exist"を皮切りに,GANで生成したリアルな偽物のサンプルをランダムに表示するWebサイトがちょっとした流行になりました.いくつか例を挙げると,次のような

                          SushiGAN2 〜この寿司は実在しません〜 - Qiita
                        • 専門家も脱帽、深層学習を使ったPFN・ENEOS量子化学シミュレーターの威力

                          Preferred Networks(PFN)とENEOSの共同出資会社Preferred Computational Chemistry(PFCC)は、分子の物性を原子レベルでシミュレートする材料探索クラウドサービス「Matlantis(マトランティス)」の提供を2021年7月6日に始めた。深層学習(ディープラーニング)を使い、これまで数時間~数カ月かかっていたシミュレーションを数秒単位で実施できるようにした。触媒や吸着剤など新物質の開発にかかる時間を圧縮できる。 Matlantisを利用すれば、専用のハードウエアを用意しなくてもブラウザー上で材料探索ができる。現在は55の元素をサポートし、今後さらに拡大する予定だ。オンライン会見で登壇したPFCCの岡野原大輔社長は「今年(2021年)は実際に多くの企業に使ってもらい、価値を認めてもらいたい。将来の海外展開を踏まえた活動も徐々に進めていき

                            専門家も脱帽、深層学習を使ったPFN・ENEOS量子化学シミュレーターの威力
                          • PFN、PyTorchユーザ向けに深層強化学習ライブラリ 「PFRL」を公開 | AI専門ニュースメディア AINOW

                            最終更新日: 2021年12月13日 株式会社Preferred Networks(PFN)は、PyTorchユーザー向けの深層強化学習ライブラリ「PFRL(ピーエフアールエル)」を、2020年7月30日にオープンソースソフトウェア(OSS)として公開しました。 PFRLは、PFNが深層学習フレームワークをChainerからPyTorchへ移行してPyTorchコミュニティと連携を強化する一環で、ChainerRLの後継ライブラリとして公開されました。 PFNは2019年12月に深層学習フレームワーク「Chainer」のメジャーアップデートを終了すると発表し、研究開発基盤をFacebook社の「PyTorch」に順次移行しました。 【PFRLの特長】 最新の研究に基づく深層強化学習アルゴリズム・深層強化学習機能が実装。それらを比較したり、組み合わせたりして実験することが可能。 特に重要な9

                              PFN、PyTorchユーザ向けに深層強化学習ライブラリ 「PFRL」を公開 | AI専門ニュースメディア AINOW
                            • 再計算でニューラルネット学習時のメモリ消費を減らす - Preferred Networks Research & Development

                              エンジニアの楠本です。深層学習で再計算と呼ばれる手法を使って学習時のメモリ消費を削減する研究や実装に取り組んでいるのでその紹介をしたいと思います。 背景 大規模なニューラルネットの学習ではしばしば誤差逆伝播(以下同様)で GPU のメモリ不足に陥ることがあります。 通常、誤差逆伝播ではパラメータについての勾配を求める際に必要な順伝播の計算結果を (途中の計算結果も含めて) すべて覚えた状態で勾配計算を行います。 一方で、例えばコンピュータビジョンの重要なタスクであるセグメンテーションや物体検出では入力画像として高解像度のものがしばしば扱われます。モデルについても高精度を達成するために複雑なネットワーク設計、すなわち層が深くまた中間表現のチャンネル数の多いネットワークが使われることが少なくありません。 このように入力やモデルが巨大である場合には記憶しておくべき途中の計算結果全体が巨大になり、

                                再計算でニューラルネット学習時のメモリ消費を減らす - Preferred Networks Research & Development
                              • LLMで勝負するには、1000億円必要か? - Vengineerの戯言

                                はじめに 学習用AIチップをTSMC 7nmで開発するには、100億円必要だよね。とお話したのが2017年頃 TensorFlow XLAの可能性, Deep Learning Acceleration 勉強会(2017.09.03 TensorFlow XLA とハードウェア, 2017年9月30日(土)のChainer Meetup #6 ざっと、6年前。この頃はまだ 7nm でチップが出てきてない時です。 その後、AI Cloud学習用スタートアップが何社立ち上がります。AI Cloud学習用スタットアップでは、7nmではなく、16nmで最初のチップ(Graphcore、Cerebras)を開発していきます。その後、チップが出来上がり、システムとして組み上げ、量産し、販売するまでに200-300億円ぐらい必要になることがわかりました。 TSMC 7nmを使って、NVIDIAのA100

                                  LLMで勝負するには、1000億円必要か? - Vengineerの戯言
                                • Optunaでハイパーパラメータの自動チューニング -Pytorch Lightning編-|はやぶさの技術ノート

                                  こんにちは。 現役エンジニアの”はやぶさ”@Cpp_Learningです。最近は、Pytorchを使って深層学習を楽しんでいます。 今回は、ハイパーパラメータ自動最適化フレームワーク Optuna を使って、ハイパーパラメータの自動チューニングを実践したので、備忘録も兼ねて本記事を書きます。 Optunaとは Optunaやハイパーパラメータについては、PFN公式ブログに丁寧な解説がありますので、本記事では割愛し… Optunaを活用したハイパーパラメータ自動チューニングのイメージのみを説明します。 従来、人がチューニングしていたハイパーパラメータを… Optunaが代わりにやってくれます(ハイパーパラメータの自動チューニング) 出典:PFNエンジニアの講演資料 以上! なお、上図は Chainer の例ですが、以下のExamplesコードが用意してあります。

                                    Optunaでハイパーパラメータの自動チューニング -Pytorch Lightning編-|はやぶさの技術ノート
                                  • ONNX 2020 - OPTiM TECH BLOG

                                    R&D チームの奥村(@izariuo440)です。相変わらず深層学習モデルの推論に取り組んでいます。深層学習モデルの推論器として二年前に ONNX Runtime を軽くレビューしましたが、当時と比較するとかなり進歩しており、ONNX Runtime だけでなく ONNX 自体や関連ソフトウェアも成熟が進んでいるので、備忘録として私がお世話になっているものをかいつまんで紹介します。 OPTiM TECH BLOG Advent Calendar 2020 12/18 の記事です。 ONNX や ONNX Runtime は二年前の記事で少し解説しています。必要に応じてご参照ください。 tech-blog.optim.co.jp ONNX チュートリアル ONNX Model Zoo オプティマイザ その他 ONNX 関連のソフトウェア ONNX Runtime onnx-tensorrt

                                      ONNX 2020 - OPTiM TECH BLOG
                                    • Kaggle 分子コンペ振り返り - コンペ概要・GCNの適用について - memo

                                      はじめに 本記事では2019年6月~8月にかけて開催され、約2800チームが参加したKaggleのコンペ Predicting Molecular Properties(通称分子コンペ)について、振り返りを兼ねてまとめたいと思います。 www.kaggle.com はじめに コンペ概要 データ データ数について xyzファイルについて scalar couplingについて Additional Dataについて 評価指標 Graph Convolutional Networks (GCN) Message Passing Neural Networks (MPNN) GCNの本コンペへの適用 その他GCNモデル GNNの参考資料 最後に コンペ概要 まず初めに本コンペのポイントをいくつか挙げます。 分子内の2つの原子間の磁気的相互作用(scalar coupling constant、以

                                        Kaggle 分子コンペ振り返り - コンペ概要・GCNの適用について - memo
                                      • 【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita

                                        はじめに これまでに提案されてきたNLPモデル一つ一つについて詳しく知りたかった&改良の歴史を知りたかったため、特に有名だと思われるものをまとめました。MikolovらによるRNNLM以降を対象としています。 注)提案年については主にarXivのSubmission historyを参照しています。詳細な日付まで分からなかったものもあります。 代表的なNLPモデル・アルゴリズム一覧 RNNLM 提案年:2010 提案者:Tomáš Mikolov1,2, Martin Karafiát1, Lukáš Burget1, Jan “Honza” Černocký1, Sanjeev Khudanpur2 提案者所属: 1Speech@FIT, Brno University of Technology, Czech Republic 2Department of Electrical and

                                          【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita
                                        • 自動着色サービス「PaintsChainer」が名称変更 ピクシブは「Chainer開発終了とは無関係」と説明

                                          ピクシブとAIベンチャーのPreferred Networks(PFN)は2月4日、ディープラーニングを活用したイラストの自動着色サービス「PaintsChainer」の名称を「Petalica Paint」(ペタリカ・ペイント)に変更したと発表した。PFNは2019年12月に自社開発の深層学習フレームワーク「Chainer」の開発終了を発表していたが、ピクシブは名称変更の理由について「Chainer開発終了によるものではない」とし、ブランディングの一環だと説明した。 PaintsChainerは、線画のイラストをアップロードすると、AIが自動で色を付けてくれるサービス。17年1月にPFNが公開し、5月にピクシブのイラスト作成アプリ「pixiv Sketch」に導入された。両社は19年11月に協業を発表し、PaintsChainerを共同運営している。 名称変更の理由について、ピクシブは「

                                            自動着色サービス「PaintsChainer」が名称変更 ピクシブは「Chainer開発終了とは無関係」と説明
                                          • PFN、深層学習フレームワークをPyTorchに移行 Chainerをやめるのは「非常に大きな決断」

                                            AI開発を手掛けるPreferred Networks(PFN)は12月5日、研究開発基盤の深層学習フレームワークを、自社開発のChainerからPyTorchに順次移行すると発表した。PyTorchは、米Facebookが開発するオープンソースの機械学習ライブラリ。PFNの西川徹社長は「非常に大きな決断だが、深層学習技術の社会実装をさらに加速できると確信している」とコメントした。 PFNは、2015年6月にChainerをオープンソース化。複雑なニューラルネットワークを直感的かつ柔軟に構築できるため、研究者や開発者から支持を集めた。しかし、深層学習フレームワークの開発で競争する時代は終わりつつあるという。 同社は「細かい差異による差別化競争をするより、コミュニティーを発展させ、健全なエコシステムを築いていくことが重要」と説明。移行先には、「Chainerの開発思想に最も近い」というPyT

                                              PFN、深層学習フレームワークをPyTorchに移行 Chainerをやめるのは「非常に大きな決断」
                                            • [レポート] AWS の AI・機械学習系サービスは Game 開発でどう活用されるか聞いてきた – Amazon Game Tech Night #15 #AmazonGametech | DevelopersIO

                                              Game Tech Night #15 8/21(水)、「ゲーム業界向け AWSで実現する機械学習」とのサブタイトルで Amazon Game Tech Night #15 が開催されました。 Amazon Game Tech Night #15 〜ゲーム業界向け AWSで実現する機械学習〜 - connpass このブログではそのうちの後半のセッション、「Game 開発で活用するAWS の AI/ML サービスのご紹介」についてレポートします。AWS が提供している AI・機械学習系のサービスを、デモや事例を交えて丁寧に紹介して頂きました! なお前半のセッション「ゲーム業界における機械学習の活用事例」については、別記事があがっていますので、そちらもぜひご参照ください! [レポート]ゲームに活用されるAIの多様性〜Amazon Game Tech Night #15 #AmazonGame

                                                [レポート] AWS の AI・機械学習系サービスは Game 開発でどう活用されるか聞いてきた – Amazon Game Tech Night #15 #AmazonGametech | DevelopersIO
                                              • ナカシャクリエイテブ株式会社

                                                機械学習・AI【物体検出】vol.1 :Windowsでディープラーニング!Darknet YOLOv3(AlexeyAB Darknet) 最速の物体検知手法:YOLOv3 ディープラーニングの物体検出において、大きなインパクトをもって登場したdarknet YOLO(ヨロ)。 2018年3月にJoseph Chet Redmonの本家darknet(https://pjreddie.com/)で、最新のYOLOv3が公開されました。 既存の物体認識、検出系の仕組みのトップレベルの認識率を維持したままで、既存の仕組みと比較して3倍から5倍の認識速度を実現しました。 ジョセフ・レドモン(プログラマー)氏について アメリカ、ワシントン大学大学院に在籍中。オープンソースの物体検出システム YOLO (You Only Look Once)に取り組んでいる。 物体検出システムの分野はここ数年、様

                                                  ナカシャクリエイテブ株式会社
                                                • 【開催報告】ML@Loft #4 (Edge) | Amazon Web Services

                                                  AWS Startup ブログ 【開催報告】ML@Loft #4 (Edge) こんにちは、スタートアップソリューションアーキテクトの針原 (Twitter: @_hariby) です。7月19日に AWS Loft Tokyo で開催された機械学習のコミュニティイベント ML@Loft の第4回では Edge Deep Learning をはじめとした技術についての話が盛り上がりました。興味はあったけど予定が合わなかった、という方のために内容をまとめたいと思います。 ML@Loft は機械学習のお悩み相談イベントで、目黒の AWS Loft Tokyo で2019年4月より毎月開催されています。もともとは AWS をお使いのお客さまが、サービスの中に機械学習を取り入れて開発・運用していく際のお悩を気軽に相談できる場が欲しい、ということで始まったイベントです。登壇者 (相談役) が自己紹介

                                                    【開催報告】ML@Loft #4 (Edge) | Amazon Web Services
                                                  • EMNLP2019の気になった論文を紹介 - 株式会社ホクソエムのブログ

                                                    ホクソエムサポーターの白井です。 EMNLP-IJCNLP 2019 (以降 EMNLP) が先日、香港で開催されました。 EMNLPは Empirical Methods in Natural Language Processing の略称で、ACLやNAACLと並ぶ、計算機科学のTop conferenceと言われてます*1。 今年採択されたEMNLPの論文は682本 (+システム/デモ論文45本) です。 (年々増えています。) 今回は、EMNLP2019の論文から、いくつか気になったものを紹介します。 前回に引き続き、検証系の論文とデータ構築についての論文をメインに扱います。 以降、記載する図表は、明記しない限り、論文から引用しています。 1. ner and pos when nothing is capitalized 2. A Little Annotation does a

                                                      EMNLP2019の気になった論文を紹介 - 株式会社ホクソエムのブログ
                                                    • 実践!Chainerとロボットで学ぶディープラーニング

                                                      教材開発ストーリー AIのビジネス活用が大きな注目を集める一方、 初学者が機械学習・深層学習(ディープラーニング)技術の理解を深めるために 自由に利用できる日本語教材は未だ少ない状況です。 アフレルとPreferred Networks(以下、PFN)は、PFNが国立大学法人山梨大学との共同研究によって開発した 深層学習を応用する実践的知識を学習するための高等教育向け教材をベースに、 深層学習を初めて学ぶ学生や社会人向けのプログラミング教材として再編集しました。 この教材は、より多くの人に深層学習技術の学習機会を提供し、 実務領域への活用を促進するため、無料で公開いたします。 学習の流れ 実際に動かすことのできるロボットカー、教育版レゴ® マインドストーム® EV3を用いることで、 Pythonによるプログラミングから、オープンソースの深層学習フレームワークChainer™ まで、 初学者

                                                        実践!Chainerとロボットで学ぶディープラーニング
                                                      • 高性能・高効率なAIチップ“MN-Core 2”の設計アプローチ――Preferred Networksによる新しいハードとソフトの役割分担 | gihyo.jp

                                                        高性能⁠⁠・高効率なAIチップ“MN-Core 2”の設計アプローチ ――Preferred Networksによる新しいハードとソフトの役割分担 Preferred Networksという企業 Preferred Networks社(PFN)は2014年に創業した深層学習技術を軸とした企業です。PFNが開発したChainer(PFNは2019年にChainer(チェイナー)から PyTorchに移行すると発表し、開発を終了した)は、このころに深層学習を試した人にはなじみ深いツールでしょう。2017年にトヨタから105億円の出資を受けたり、Green500に何度も選出されたりと、深層学習関連ではトップランナーの1つと思います。 筆者は2023年の12月にPFNを訪問し、土井裕介氏(計算基盤担当VP)に取材する機会を得ました。土井氏は早くからPFNに参加したスタッフの1人でもあり、アーキテク

                                                          高性能・高効率なAIチップ“MN-Core 2”の設計アプローチ――Preferred Networksによる新しいハードとソフトの役割分担 | gihyo.jp
                                                        • 52. Split into a row | Researchat.fm

                                                          ゲストにkotoneさんを招き、ディープラーニング、機械学習とそのアルゴリズムや計算用マシンについて話しました。Show notes 機械学習 (Wikipedia) ディープラーニング(深層学習) (Wikipedia) ニューラルネットワーク (Wikipedia) パーセプトロン (Wikipedia) GPU (Wikipedia) ディープラーニング入門 Chainer チュートリアル 株式会社 Preferred Networks Chainer NVIDIA CUDA-X GPU-Accelerated Libraries for AI and HPC Preferred Networks、1024個のGPUでディープラーニングの世界最高速を実現と発表 NARUTO -ナルト- 疾風伝 ナルト全巻セット ImageNet…学習用の画像データセット 畳み込みニューラルネット(W

                                                            52. Split into a row | Researchat.fm
                                                          • Googleのインターンホストマッチングに2年連続落ちた話 - Joeの精進記録

                                                            (追記)こんにちは、社会人のJoeです。この当時はいろいろ未熟なところが多く、記事の内容がかなり過激なのですが、当時の気持ちを尊重したいという考えもあって、残しておきます。記事の最後に社会人目線での今の感想も載せておくのでよければそこまで目を通していただけると幸いです。では。 まあ今回はホストマッチング用のFormを提出しなかったぼくが悪いようですが(マッチング時期を夏休みのインターンとかぶらないように変えたかっただけなんですが未提出という扱いになったっぽい)、以前から言いたいことが多かったので書きます。 ほんとは受かったら思う存分苦情を書いてやろうと思ったのですが、受からずに書くのは恥ずかしいですね インターンに合格するまで Step 1 応募する。これはStudent向けのインターンに応募すれば90%ぐらいの確率で返信が来るはずです。海外のインターンやインターンでない募集に応募した場合

                                                              Googleのインターンホストマッチングに2年連続落ちた話 - Joeの精進記録
                                                            • Distributed Deep Learning with Chainer and Hadoop

                                                              「できる!」を増やすGitHub Copilot活用法 / How to use GitHub Copilot to expand your possibilities

                                                                Distributed Deep Learning with Chainer and Hadoop
                                                              • PyTorch 三国志(Ignite・Catalyst・Lightning) - Qiita

                                                                (2021/06/19) 2021年の PyTorch Lightning については PyTorch Lightning 2021 (for MLコンペ) - Qiita にまとめました。 0. 導入 深層学習フレームワークはいずれも開発が非常に速く盛り上がっている分野だと思います。 TensorFlow や jax 等もある中、つい先日 PFN のニュースもあり、PyTorch もより盤石となりそうです。おそらくこれからも PyTorch ユーザーは増えると思われます(Chainer にもあった公式 Trainer が PyTorch 内に実装されるとこの記事の存在が危ぶまれるので、そこには触れないこととします)。 しかし PyTorch は自由度が高い一方、学習周りのコード(各 epoch のループ周りとか)は個々人に委ねられており、非常に個性豊かなコードとなりがちです。 これらのコ

                                                                  PyTorch 三国志(Ignite・Catalyst・Lightning) - Qiita
                                                                • PFN、ディープラーニングの研究開発基盤をPyTorchに移行。Chainerはメンテナンスフェーズへ | Ledge.ai

                                                                  Preferred Networks(以下PFN)は、研究開発の基盤技術であるディープラーニングフレームワークを、自社開発のChainerから、PyTorchに順次移行すると発表した。今後Chainerの開発はバグフィックスおよびメンテナンスのみとなる。 Chainerファミリー(ChainerCV, Chainer Chemistry, ChainerUI, ChainerRL)についてもこの方針に従う。PFNが運用するディープラーニング入門:Chainerチュートリアル(外部サイト)についても今後コンテンツのリニューアルを検討予定だという。 関連記事:【Chainer】ディープラーニング初学者向けのチュートリアルを無償公開。Pythonの使い方から実装までの流れを学べる 関連記事:ディープラーニングとは|AI・人工知能・歴史・仕組み・学習手法・活用事例 同時に、PyTorchを開発する

                                                                    PFN、ディープラーニングの研究開発基盤をPyTorchに移行。Chainerはメンテナンスフェーズへ | Ledge.ai
                                                                  • 深層生成モデルを巡る旅(3): GAN - Qiita

                                                                    はじめに 「深層生成モデルを巡る旅」シリーズ第3回はみなさんお待ちかねの(?)GANのまとめです. GANは綺麗な画像を生成することに長けており, その人気はFlowやVAEと比べても圧倒的です. その一方で, 世にはGANの研究があふれていて, 画像生成に限っても把握するのが困難な状態になっています. 本記事では, 元祖から最新の研究に至る歴史の中で重要と思われるものをジャンル別に紹介したいと思います. 今回も画像生成のみを扱います. GANの基本 GANそのものについての解説は日本語のものに限っても既に多数あるので, ここでは簡単に触れることとし, 後に続く各手法の紹介に集中したいと思います. ご存じの方は飛ばしてください. 全体像 A Beginner's Guide to Generative Adversarial Networks (GANs) | Skymind GANは生成

                                                                      深層生成モデルを巡る旅(3): GAN - Qiita
                                                                    • ニューラルネットワークの基礎 — ディープラーニング入門:Chainer チュートリアル

                                                                      ニューラルネットワークとは¶ ニューラルネットワークは、微分可能な変換を繋げて作られた計算グラフ (computational graph) です。 本章では、まずは下の図のような、円で表されたノード (node) に値が入っていて、ノードとノードがエッジ (edge) で繋がれているようなものを考えます。 この図でいうノードの縦方向の集まりのことを層 (layer) と呼びます。 そしてディープラーニング (deep learning) とは、層の数が非常に多いニューラルネットワークを用いた機械学習の手法や、その周辺の研究領域のことを指します。 層(layer)¶ 上の図は、ニューラルネットワークを用いて、ワインに関するいくつかの情報から、そのワインが「白ワイン」なのか「赤ワイン」なのか、というカテゴリを予測する分類問題を解く例を表しています。 左側から、最初の層を入力層 (input

                                                                        ニューラルネットワークの基礎 — ディープラーニング入門:Chainer チュートリアル
                                                                      • Announcing the PyTorch Foundation: A new era for the cutting-edge AI framework

                                                                        Announcing the PyTorch Foundation: A new era for the cutting-edge AI framework To accelerate progress in AI, PyTorch is moving to a new, independent PyTorch Foundation, under the Linux Foundation umbrella. The project will join the Linux Foundation with a diverse governing board composed of representatives from AMD, Amazon Web Services, Google Cloud, Meta, Microsoft Azure, and Nvidia, with the int

                                                                          Announcing the PyTorch Foundation: A new era for the cutting-edge AI framework
                                                                        • 【初心者向け】AIプログラミング入門 – 学習の流れとおすすめの勉強方法5選 | AI専門ニュースメディア AINOW

                                                                          最終更新日: 2021年4月1日 「自分でAIを作ってみたい」と思ったことはありませんか?プログラミングでAIを作ることは決して難しいことではありません。 Pythonというプログラミング言語のライブラリ機能を駆使することで、誰でも簡単にAIを実装できるようになります。さらに学習を進めることで、オリジナルのAIサービスを開発することも可能です。 この記事では、「AIプログラミング入門」として、初心者向けにAI・プログラミングの勉強方法を紹介していきます。 プログラミング学習を始めるメリット まず、AIを勉強するためにプログラミング学習を始めるメリットは何なのでしょうか。 AIをプログラミングで再現することで、AIに対する知識や理解が深まることは言うに及ばず、プログラミングというスキルを習得することにはさまざまなメリットがあります。 初心者でも始めやすい AI開発で主に用いられる言語はPyt

                                                                            【初心者向け】AIプログラミング入門 – 学習の流れとおすすめの勉強方法5選 | AI専門ニュースメディア AINOW
                                                                          • 『Learn or Die 死ぬ気で学べ』最先端AI企業の挑戦 - HONZ

                                                                            第三次AIブームにのって有象無象のスタートアップベンチャーが立ち上げられた。一次は玉石混合の状態だった中、ここ数年で真に社会課題を解決しそうなベンチャーが生き残るようになってきている。その中でもユニコーン(企業価値10億ドル以上の非上場企業)まで評価されるようになったのがPreferredNetworksという会社だ。 同社は、2020年初時点では日本最高のユニコーン企業として注目を浴びている。一方で、一般的には「噂には聞くがいまいち何をしているのかよく分からない会社」という印象が未だにありそうだ。本書はそんなベールに包まれがちだったAI企業PreferredNetworks社の内幕を同社共同創業者である西川徹と岡野原大輔が明かす初の書である。 PreferredNetworks社を一躍有名にしたのは、同社が開発した基盤ソフトウェア「Chainer」だ。ディープラーニング用の基盤ソフトがま

                                                                              『Learn or Die 死ぬ気で学べ』最先端AI企業の挑戦 - HONZ
                                                                            • 株式自動売買とディープラーニング(ニューラルネットワーク)の話。 - sun_ek2の雑記。

                                                                              目次。 目次。 はじめに。 プログラミング技術は、コロナ禍から生活を守る技術? 短くまとめると…。 じゃあ、どうすれば? 宣伝:新型コロナウイルス関連の論文を一般向けに解説した文章。 ディープラーニング(ニューラルネットワーク)とは? 「ディープラーニング(ニューラルネットワーク)と僕」の話。 ディープラーニング(ニューラルネットワーク)を使って、株式の自動売買をしようと思い立った理由。 ディープラーニング(ニューラルネットワーク)を使うことを躊躇っていた理由は2つ。 量子ディープラーニング(量子ニューラルネットワーク)の影響。 ディープラーニング(ニューラルネットワーク)の研究は、急速に発展している。 ディープラーニング(ニューラルネットワーク)は、汎用性がある。 ディープラーニング(ニューラルネットワーク)に必要なライブラリって? TensorFlow vs PyTorch。 人気。

                                                                                株式自動売買とディープラーニング(ニューラルネットワーク)の話。 - sun_ek2の雑記。
                                                                              • PyTorchを用いた深層学習の研究開発向けライブラリを公開

                                                                                Preferred Networksは、PyTorchを用いた深層学習の研究開発をサポートする「pytorch-pfn-extras」ライブラリをオープンソースソフトウェアとして公開するなど、PyTorchコミュニティーとの連携強化について発表した。 Preferred Networks(PFN)は2020年5月12日、PyTorchコミュニティーとの連携強化について発表した。 PyTorchは、プログラミング言語「Python」向けのオープンソース機械学習ライブラリ。同社は今回、PyTorchを用いた深層学習の研究開発をサポートする「pytorch-pfn-extras」ライブラリをオープンソースソフトウェア(OSS)として公開した。 pytorch-pfn-extrasは、Chainerの中で特に役立つ機能をPyTorch向けに再実装したものだ。ChainerからPyTorchに深層学

                                                                                  PyTorchを用いた深層学習の研究開発向けライブラリを公開
                                                                                • PFNがChainerの開発を終了しPyTorchへ移行、西川社長「非常に大きな決断」

                                                                                  PFNがChainerの開発を終了しPyTorchへ移行、西川社長「非常に大きな決断」:人工知能ニュース Preferred Networks(PFN)は2019年12月5日、同社が開発する深層学習フレームワーク「Chainer」のメジャーアップデートを終了すると発表した。 Preferred Networks(PFN)は2019年12月5日、同社が開発する深層学習フレームワーク「Chainer」のメジャーアップデートを終了すると発表した。バグフィックスおよびメンテナンスは継続する。同社の研究開発基盤は、Chainerから米Facebookが主導する深層学習フレームワーク「PyTorch」へ順次移行する。 同日に公開された「Chainer v7」が最後のメジャーリリースになる予定だ。ChainerファミリーのライブラリであるChainerCVやChainer Chemistry、Chain

                                                                                    PFNがChainerの開発を終了しPyTorchへ移行、西川社長「非常に大きな決断」