並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 37 件 / 37件

新着順 人気順

cupyの検索結果1 - 37 件 / 37件

  • Chainer を振り返って

    2015 年 4 月 12 日に Chainer の最初のコードをコミットしてから,およそ 4 年半と少しが経ちました.はじめのはじめは軽い気持ちで書きはじめたコードでしたが,今では一線級の研究を立派に支えるまでになりました.深層学習フレームワークの世界も当時とは様変わりして(当時は TensorFlow も PyTorch もなかったわけですから,本当に変わりました),思えば遠くにきたものです. 今日,PFN は社内の研究開発に用いる主なフレームワークを PyTorch に移行すると発表しました.会社にとってももちろんですが,業務としてはこの 4 年半,Chainer 一筋でやってきた自分にとっては特に,大きな転換点です. まず率直な感想として,Chainer の開発は本当に楽しかったです.書きはじめた頃は,深層学習フレームワーク競争の真っ只中で,Theano の上に乗っかるフレームワー

    • Preferred Networks、深層学習の研究開発基盤をPyTorchに移行 - 株式会社Preferred Networks

      PyTorch開発チームおよびオープンソースコミュニティと連携し、フレームワーク開発、MN-CoreプロセッサのPyTorchサポートなどを推進 株式会社Preferred Networks(本社:東京都千代田区、代表取締役社長:西川徹、プリファードネットワークス、以下、PFN)は、研究開発の基盤技術である深層学習フレームワークを、自社開発のChainer™から、PyTorchに順次移行します。同時に、PyTorchを開発する米FacebookおよびPyTorchの開発者コミュニティと連携し、PyTorchの開発に参加します。なお、Chainerは、本日公開されたメジャーバージョンアップとなる最新版v7をもってメンテナンスフェーズに移行します。Chainerユーザー向けには、PyTorchへの移行を支援するドキュメントおよびライブラリを提供します。 PFN 代表取締役社長 西川徹は、今回の

        Preferred Networks、深層学習の研究開発基盤をPyTorchに移行 - 株式会社Preferred Networks
      • 近似最近傍探索Indexを作るワークフロー - ZOZO TECH BLOG

        はじめに こんにちは。ZOZO研究所のshikajiroです。主に研究所のバックエンド全般を担当しています。ZOZOでは2019年夏にAI技術を活用した「類似アイテム検索機能」をリリースしました。商品画像に似た別の商品を検索する機能で、 画像検索 と言った方が分かりやすいかもしれません。MLの開発にはChainer, CuPy, TensorFlow, GPU, TPU, Annoy、バックエンドの開発にはGCP, Kubernetes, Docker, Flask, Terraform, Airflowなど様々な技術を活用しています。今回は私が担当した「近似最近傍探索Indexを作るワークフロー」のお話です。 corp.zozo.com 目次 はじめに 目次 画像検索の全体像説明 Workflow Develop Application 推論APIの流れ 近似最近傍探索とAnnoy 近似

          近似最近傍探索Indexを作るワークフロー - ZOZO TECH BLOG
        • ゼロから作るDeep Learning ❸

          大ヒットを続ける人気シリーズの第3弾。今回は「DeZero」というディープラーニングのフレームワークをゼロから作ります。DeZeroは本書オリジナルのフレームワークです。最小限のコードで、フレームワークのモダンな機能を実現します。本書では、この小さな――それでいて十分にパワフルな――フレームワークを、全部で60のステップで完成させます。それによって、PyTorch、TensorFlow、Chainerなどの現代のフレームワークに通じる知識を深めます。キャッチフレーズは――作るからこそ、見えるモノ。 関連ファイル サンプルコード 正誤表 ここで紹介する正誤表には、書籍発行後に気づいた誤植や更新された情報を掲載しています。以下のリストに記載の年月は、正誤表を作成し、増刷書籍を印刷した月です。お手持ちの書籍では、すでに修正が施されている場合がありますので、書籍最終ページの奥付でお手持ちの書籍の刷

            ゼロから作るDeep Learning ❸
          • 特徴量エンジニアリングのライブラリ xfeat を使ってみて便利だったこと - Taste of Tech Topics

            こんにちは。機械学習エンジニアをしている古賀です。 最近は愉快な上司@tereka114 のもと、精度の上がらないモデルに四苦八苦しています。 そんな私が普段データ分析をする際に難しいことの一つとして、特徴量エンジニアリングがあります。 特徴量エンジニアリングとは、元のデータに新たな特徴量を追加することでモデルの精度を向上させるプロセスのことです。 この結果によってモデルの精度が大きく変わりますが、正しく実行するにはデータへの深い理解やデータ分析力が必要になります。 私もあまり得意ではないのですが、これを簡単にする xfeat という便利なライブラリがあると上司が教えてくれたので、実際に使ってみて便利だったことをまとめました。 ※本記事は、Pythonその3 Advent Calendar 2020 の15日目の内容になります。 目次は以下です。 xfeat とは 準備 実行環境 xfea

              特徴量エンジニアリングのライブラリ xfeat を使ってみて便利だったこと - Taste of Tech Topics
            • はじめての自然言語処理 spaCy/GiNZA を用いた自然言語処理 | オブジェクトの広場

              前回は BERT についてその概要と使い方を紹介しました。今回は自然言語処理ライブラリである spaCy と spaCy をフロントエンドとする日本語NLPライブラリの GiNZA について紹介します。 1. 始めに 本記事では欧米で有名な自然言語処理ライブラリである spaCy とリクルートと国立国語研究所の共同研究成果である日本語NLPライブラリ GiNZA について紹介します。記事の前半では、spaCy と GiNZA の概要と日本語を処理する際の基本的な機能/操作について説明します。後半では、spaCy で提供される文章分類機能について、前回までに紹介した手法も含めて精度を比較してみます。 2. spaCy と GiNZA の概要 spaCy は Explosion AI 社の開発する Python/Cython で実装されたオープンソースの自然言語処理ライブラリで MIT ライセ

                はじめての自然言語処理 spaCy/GiNZA を用いた自然言語処理 | オブジェクトの広場
              • Chainer/CuPy v7のリリースと今後の開発体制について

                Chainer/CuPy v7のリリースと今後の開発体制について By Chainer Team Dec 5, 2019 In Announcement Chainer/CuPy v7のリリース、およびChainerの開発体制の変更についてお知らせします。 Chainer/CuPy v7 本日、ChainerおよびCuPyのv7.0.0をリリースしました。変更点については各リリースノートをご覧ください。主要な変更点は以下の通りです。 Chainer v7 (alpha, beta1, beta2, beta3, beta4, rc1, major): ChainerMNを含む多くの機能がChainerXのndarrayに対応しました。 ONNX-ChainerがChainerに統合されました。 TabularDataset が追加されました。カラム指向のデータセットをpandasのような抽

                  Chainer/CuPy v7のリリースと今後の開発体制について
                • 分散深層学習における耐故障性と可塑性 - Preferred Networks Research & Development

                  ImageNetを15分で学習して以来 [1]、Chainerと沢山のGPUを使って深層学習を並列化し、一回の学習に必要な時間を大きく短縮することができるようになりました。その後、ImageNetの学習は深層学習における並列化 ・高速化のデファクト標準ベンチマークとなりました [2]。それと同時に、深層学習の並列化および大規模化は進み、複数GPUどころか複数ノードで学習することは当たり前のこととなりました。深層学習の計算が大規模化し所要時間はどんどん短くなりましたが、一般的にはノードが増えれば増えただけ部分故障の確率は高くなります。また、大規模なクラスタでは個々の分散ジョブをスケールアウトしたりスケールダウンする機能、つまり可塑性をもとにした計算資源のやりくりが運用上重要になってきます。そこでChainerを拡張し、分散深層学習に耐故障性だけでなく可塑性を導入する実験を行いましたので、ここ

                    分散深層学習における耐故障性と可塑性 - Preferred Networks Research & Development
                  • Data-oriented Programming in Python

                    Originally posted 2020-09-13 Tagged: software engineering, computer science, python, popular ⭐️ Obligatory disclaimer: all opinions are mine and not of my employer Many users of Python deprioritize performance in favor of soft benefits like ergonomics, business value, and simplicity. Users who prioritize performance typically end up on faster compiled languages like C++ or Java. One group of users

                    • JAX入門~高速なNumPyとして使いこなすためのチュートリアル~ - Qiita

                      TensorFlow Advent Calendar 2020 10日目の記事です。空いてたので当日飛び入りで参加しました。 この記事では、TensorFlowの関連ライブラリである「JAX」について初歩的な使い方、ハマりどころ、GPU・TPUでの使い方や、画像処理への応用について解説します。 JAXとは https://github.com/google/jax Google製のライブラリで、AutogradとXLAからなる、機械学習のための数値計算ライブラリ。簡単に言うと「自動微分に特化した、GPUやTPUに対応した高速なNumPy」。NumPyとほとんど同じ感覚で書くことができます。自動微分については解説が多いので、この記事では単なる高速なNumPyの部分を中心に書いていきます。 関連記事 JAX Quickstart JAXで始めるディープラーニング JAX : Tutorials

                        JAX入門~高速なNumPyとして使いこなすためのチュートリアル~ - Qiita
                      • PFN、深層学習フレームワークをPyTorchに移行 Chainerをやめるのは「非常に大きな決断」

                        AI開発を手掛けるPreferred Networks(PFN)は12月5日、研究開発基盤の深層学習フレームワークを、自社開発のChainerからPyTorchに順次移行すると発表した。PyTorchは、米Facebookが開発するオープンソースの機械学習ライブラリ。PFNの西川徹社長は「非常に大きな決断だが、深層学習技術の社会実装をさらに加速できると確信している」とコメントした。 PFNは、2015年6月にChainerをオープンソース化。複雑なニューラルネットワークを直感的かつ柔軟に構築できるため、研究者や開発者から支持を集めた。しかし、深層学習フレームワークの開発で競争する時代は終わりつつあるという。 同社は「細かい差異による差別化競争をするより、コミュニティーを発展させ、健全なエコシステムを築いていくことが重要」と説明。移行先には、「Chainerの開発思想に最も近い」というPyT

                          PFN、深層学習フレームワークをPyTorchに移行 Chainerをやめるのは「非常に大きな決断」
                        • Python作者 Guido氏インタラクティブ記念講演会レポート | gihyo.jp

                          本レポートではメインコンテンツである、3つの「Guidoさんに○○」について簡単にレポートします。 GuidoさんにQ&A 「GuidoさんにQ&A」のコーナーでは、質問を参加者から事前にフォームで集め、そのうちいくつかの質問をピックアップし、その場でGuidoさんに回答してもらいました。MCはJDLAのシバタアキラさんとPyCon JP AssociationのJonasさんです。 Q&Aの様子 質問に使用したスライドは以下のページで公開しています。 GuidoさんにQ&A 全部で7つの質問をしました。質問を投稿してくれたみなさん、ありがとうございます。ここではいくつかの質問とその回答を紹介します。 「他の人に使ってもらうツール」に大切なこと 質問:「他の人に使ってもらうツール」を作る上で大切なことは何だと思いますか? Guidoさん:他の人が何を望んでいるかを知ることは難しく、まずは自

                            Python作者 Guido氏インタラクティブ記念講演会レポート | gihyo.jp
                          • Amazon SageMakerでのディープラーニング学習時における、GPUパフォーマンスチューニングのためのI/O最適化 | Amazon Web Services

                            Amazon Web Services ブログ Amazon SageMakerでのディープラーニング学習時における、GPUパフォーマンスチューニングのためのI/O最適化 GPUはディープラーニングの学習スピードを著しく向上させ、学習にかかる時間を数週間からほんの数時間へと短縮させる可能性があります。しかし、GPUを使用する恩恵を十分に得るためには以下の点を考慮する必要があります。 基盤となるハードウェアを十分に稼働させるためのコードの最適化 最新の高性能なライブラリとGPUドライバの使用 GPUの計算と一致する速度でデータがGPUに供給されるためのI/Oとネットワーク操作の最適化 マルチGPUもしくは分散学習の際のGPU間の通信の最適化 Amazon SageMakerは開発者とデータサイエンティストがあらゆる規模で迅速かつ簡単に機械学習(ML)モデルをビルド、学習、デプロイするためのフ

                              Amazon SageMakerでのディープラーニング学習時における、GPUパフォーマンスチューニングのためのI/O最適化 | Amazon Web Services
                            • pypackaging-native

                              Home Home Meta topics Key issues Other issues Background References Glossary Home Introduction Packaging is an important and time-consuming part of authoring and maintaining Python packages. This is particularly true for projects that are not pure Python but contain code that needs to be compiled, and have to deal with distributing compiled extensions and with build dependencies. Many projects in

                              • GiNZAのja-ginza-electraモデルでELECTRAベースの単語ベクトルを使用できるようにする - OPTiM TECH BLOG

                                はじめに R&Dチーム所属の伊藤です。相も変わらず自然言語処理と格闘する毎日を送っています。 今回は個人的にとても楽しみにしていたGiNZA v5の新モデルであるja-ginza-electraを使って、前後の文脈を加味した単語ベクトルを求められるようにするまでの手順をまとめました。 はじめに GiNZA v5について セットアップ モデルのロード + 文の解析方法 行いたいこと Contextualな単語ベクトル ELECTRAモデルの出力と単語ベクトルの計算 spaCyのUser hooksの追加 おわりに GiNZA v5について GiNZAはspaCyをベースにしたPythonの日本語向け自然言語処理ライブラリです。 形態素解析をはじめとして、固有表現抽出や品詞タグ付け、構文解析などを行うことが可能です。 このGiNZAですが、2021年8月26日に最新バージョンであるv5が公開さ

                                  GiNZAのja-ginza-electraモデルでELECTRAベースの単語ベクトルを使用できるようにする - OPTiM TECH BLOG
                                • PFNがChainerの開発を終了しPyTorchへ移行、西川社長「非常に大きな決断」

                                  PFNがChainerの開発を終了しPyTorchへ移行、西川社長「非常に大きな決断」:人工知能ニュース Preferred Networks(PFN)は2019年12月5日、同社が開発する深層学習フレームワーク「Chainer」のメジャーアップデートを終了すると発表した。 Preferred Networks(PFN)は2019年12月5日、同社が開発する深層学習フレームワーク「Chainer」のメジャーアップデートを終了すると発表した。バグフィックスおよびメンテナンスは継続する。同社の研究開発基盤は、Chainerから米Facebookが主導する深層学習フレームワーク「PyTorch」へ順次移行する。 同日に公開された「Chainer v7」が最後のメジャーリリースになる予定だ。ChainerファミリーのライブラリであるChainerCVやChainer Chemistry、Chain

                                    PFNがChainerの開発を終了しPyTorchへ移行、西川社長「非常に大きな決断」
                                  • ED法の重みをGPUで並列更新したら3,000倍高速化した。 - Qiita

                                    はじめに 先日、ED法の解説記事を書きました。 並列処理と相性が良さそうであると述べておきながら、GPUを使用した実装をしていなかったので、CuPyを使用して並列処理の威力を確かめてみます。 GPUを使った重みの並列更新 一層あたり32*2細胞、4096層、入力サイズ28*28、バッチサイズ64で実行したところ、計算時間は forwardで 3.02 s ± 491 ms 同時更新可能なupdateでは1.10 ms ± 290 μs となりました(RTX3070)。 シーケンシャルなforwardと比較し約3,000倍の速度という、圧倒的な並列計算の力を感じます。 同じ設定でCPUで計算した場合のタイムは以下です(Ryzen7 5700X)。 forwardで 363 ms ± 90.3 ms updateで 3.26 s ± 38.2 ms forwardの結果は逆転していますね。 一

                                      ED法の重みをGPUで並列更新したら3,000倍高速化した。 - Qiita
                                    • numbaでざっくりPython高速化 - Qiita

                                      numbaというライブラリを使うと、Pythonのコードを比較的簡単に高速化できます。 うまくいけば、from numba import jitを書いて、高速化したい関数の前の行に@jitを書くだけで高速化できます。 仕組みとしては、numbaはPythonの仮想マシンコードを取得し、LLVM IRにコンパイルし、LLVMを使ってネイティブコードにするようです。 初回実行時は、コンパイル処理が走るので、若干遅くなりますが、重い処理だと、コンパイル時間を考えてもnumbaの方が速いこともあります。 利点と欠点 先に述べておきます。 利点 場合によっては、コード自体は改造せずに手軽に高速化できる コードの改造があったとしても、軽微な改造で済むことも多い 別ファイルに分けてビルドする、みたいな手間なことが必要なく、手軽に.pyファイルの中で使える 欠点 すべてのPython機能がサポートされてい

                                        numbaでざっくりPython高速化 - Qiita
                                      • Announcing the Consortium for Python Data API Standards

                                        Announcing the Consortium for Python Data API Standards An initiative to develop API standards for n-dimensional arrays and dataframes 11 minute read Published: 17 Aug, 2020 Over the past few years, Python has exploded in popularity for data science, machine learning, deep learning and numerical computing. New frameworks pushing forward the state of the art in these fields are appearing every year

                                        • ありがとう、Chainer。頼むぜPyTorch。 - Qiita

                                          2019/12/5、PFNからChainerの開発を停止しPyTorchの開発に貢献するというアナウンスがありました。 Preferred Networks、深層学習の研究開発基盤をPyTorchに移行 オフィシャルな発表が出たことは衝撃的でしたが、心の中で「いつかはこうなるんじゃないか」という思いがあったのも事実です。さびしくはありつつも、決断にはベストな時期だったのではないかと思います。ここ最近は動的グラフをサポートしたTensorFlow 2.0の公開があり、機能的にほぼ差異がなくなった2大フレームワークの決戦がいよいよ始まる・・・という雰囲気です。そんな中でのChainer開発合流のニュースは十分存在感が出る時期ですし、PyTorch陣営としてもありがたかったのではないかなと思います(積まれているIssue/PRもTensorFlowより多いですし)。 本記事では、Chainerへ

                                            ありがとう、Chainer。頼むぜPyTorch。 - Qiita
                                          • Kaggle上位解法まとめ

                                            Kaggle上位解法まとめ はじめに        2 前処理        2 欠損値の処理        2 Min Max Scalar        2 外れ値の処理        3 Rank Transformation        3 Log Transformation(Square root Transformation)        3 Categoricalデータの処理        3 Label Encoding        3 One-Hot Encoding        3 特徴量エンジニアリング        4 力技        4 正規化        4 外れ値を予測        4 次元削除        4 PCA        4 t-SNE        5 UMAP        5 Negative Down-Sampling 

                                            • CuPy カーネル融合の拡張 - Preferred Networks Research & Development

                                              本記事は、2019年インターンシップとして勤務した徐 子健さんによる寄稿です。 2019年度夏季インターンのJoeです。この度インターンプロジェクトとしてCuPyのカーネル融合の拡張に取り組み、既存のカーネル融合の適用範囲を大幅に拡張しました。さらにその応用として、ResNet50のバッチ正規化においてCPU実行時間を30%ほど、GPU実行時間を(入力サイズに大きく依存しますがおおよそ)70%ほど削減することに成功しましたので、その取り組みをご紹介します。 背景 CuPyはNumPyと同じAPIを提供するPythonのライブラリで、CUDAを用いて演算を高速に行います。具体的には、行列・ベクトルの要素ごとの演算や、リダクションと呼ばれる、演算によって配列の次元が落ちる演算(たとえばcupy.sum)など、GPUが得意とする計算を高速に行うことができます。 さて、CuPyのGPU演算は強力で

                                                CuPy カーネル融合の拡張 - Preferred Networks Research & Development
                                              • NVIDIA 数学ライブラリによる GPU アプリケーションの高速化

                                                Reading Time: 3 minutes GPU アプリケーションを高速化する方法には、主にコンパイラ指示行、プログラミング言語、ライブラリの 3 つがあります。OpenACC などは指示行ベースのプログラミング モデルで、コードをスムーズに GPU に移植し、高速化することができます。使い方は簡単ですが、特定のシナリオでは最適なパフォーマンスが得られない場合があります。 CUDA C や C++ などのプログラミング言語は、アプリケーションを高速化する際に、より大きな柔軟性を与えてくれます。しかし、最新のハードウェアで最適なパフォーマンスを実現するために、新しいハードウェア機能を活用したコードを書くことも、ユーザーの責任です。そこで、そのギャップを埋めるのが、ライブラリです。 コードの再利用性を高めるだけでなく、NVIDIA 数学ライブラリは、最大の性能向上のために GPU ハード

                                                  NVIDIA 数学ライブラリによる GPU アプリケーションの高速化
                                                • はじめての自然言語処理 spaCy/GiNZA を用いた自然言語処理 | オブジェクトの広場

                                                  前回は BERT についてその概要と使い方を紹介しました。今回は自然言語処理ライブラリである spaCy と spaCy をフロントエンドとする日本語NLPライブラリの GiNZA について紹介します。 1. 始めに 本記事では欧米で有名な自然言語処理ライブラリである spaCy とリクルートと国立国語研究所の共同研究成果である日本語NLPライブラリ GiNZA について紹介します。記事の前半では、spaCy と GiNZA の概要と日本語を処理する際の基本的な機能/操作について説明します。後半では、spaCy で提供される文章分類機能について、前回までに紹介した手法も含めて精度を比較してみます。 2. spaCy と GiNZA の概要 spaCy は Explosion AI 社の開発する Python/Cython で実装されたオープンソースの自然言語処理ライブラリで MIT ライセ

                                                    はじめての自然言語処理 spaCy/GiNZA を用いた自然言語処理 | オブジェクトの広場
                                                  • RAPIDS Forest Inference Library: Prediction at 100 million rows per second

                                                    IntroductionRandom forests (RF) and gradient-boosted decision trees (GBDTs) have become workhorse models of applied machine learning. XGBoost and LightGBM, popular packages implementing GBDT models, consistently rank among the most commonly used tools by data scientists on the Kaggle platform. We see similar interest in forest-based models in industry, where they are applied to problems ranging fr

                                                      RAPIDS Forest Inference Library: Prediction at 100 million rows per second
                                                    • データが多いときはp値は使えないのか? - Qiita

                                                      はじめに 最近(もう結構前)、p値だけを見てデータを評価するのは止めようという動きがあります。 「“統計的に有意差なし”もうやめませんか」 Natureに科学者800人超が署名して投稿 仮説検定の判断をp値でする危険性 社内でもp値や統計的有意性について話題に上がりました。データの量が多くなるとp値が小さくなってしまい、どんなデータでも有意になってしまうため、ビッグデータにp値を使うのはやめたほうがいいという話です。これは、確かにそうなのですが、なぜ有意になってしまうのかをちゃんと理解せずに「ビッグデータの時代には古臭い統計学なんて役に立たないのね〜」と勘違いしている人がいそうなので今回はp値について考えてみます。 なぜデータが増えると有意になってしまうのか 議論を簡単にするために、例として母分散が既知の平均値の検定を行うこととします。母集団は無限母集団とし、分散1平均0の標準正規分布に従

                                                        データが多いときはp値は使えないのか? - Qiita
                                                      • 次世代Pythonバインディングライブラリnanobindを試す

                                                        Pythonバインディングとは? (主に)C/C++で書かれたコードをpythonで使えるようにすることを言います。 このようなことを行う理由としては、Pythonはもともと計算のパフォーマンスがあまり良くなく、ボトルネックとなるような処理をC/C++のような処理の速いコンパイル言語で記述し、それをPythonから呼び出せるようにするためで、これによって計算のボトルネックを解消することがしばしば行われます。 C/C++以外でもバインディングすることもあるかと思いますが、C/C++だとSIMDやOpenMP、CUDAといったハードウェアアクセラレーションとの親和性も高く、特に科学技術系ではこのような高速化が行われることが多いです。 Pythonバインディングを行うためのライブラリ 本記事で取り上げるnanobindを紹介する前に、現在よく使用されている他のPythonバインディングライブラリ

                                                          次世代Pythonバインディングライブラリnanobindを試す
                                                        • Pythonの実行を高速化する方法を一覧でまとめてみた - Qiita

                                                          1. クラスタレベル 複数のマシンを使用するクラスタレベルで分散処理することで高速化する方法です。 もうここまでくると Python というプログラミング言語レベルではなくなりますが、高速化の選択肢として説明します。 Hadoop 大量のデータを複数マシンに分散して処理させるオープンソースのプラットフォーム。 Google社内基盤技術をオープンソースとして実装したものらしいです。 Apache Spark カリフォルニア大学バークレー校で開発された分散処理フレームワーク。 Hadoopよりもメモリをうまく使うことで、機械学習を高速で実行できるようにしたものです。 2. コンピュータレベル 1台のコンピュータの中で高速化する方法です。 高速化のアプローチとしては、並列化、GPGPU、ハードウェアの選択があります。 2-1. 並列化 一つのマシンの中で、プログラムを並列化して実行して高速化する

                                                            Pythonの実行を高速化する方法を一覧でまとめてみた - Qiita
                                                          • サイトマップ

                                                            金子研究室ホームページサイトマップ. 金子研究室ホームページでは,約2000ページを公開している.ページは,データベース関連技術,データの扱い,インストール,設定,利用,プログラミング,サポートページ,連絡先,業績に分けて構成している.サイトマップでは,ホームページ内の全てのページについてのサイトマップを示している. 【サイト構成】 人工知能 3次元,地図 プログラミング 情報工学全般 インストール データ処理 支援 連絡先,業績など 金子邦彦研究室 ▶ サイトマップ ▶ サイト内検索 ▶ アクセスログ(直近28日分), Google Search Console ▶ まとめページ(目次ページ) ▶ 人工知能応用,データ応用,3次元のまとめ ▶ Windows のまとめ ▶ Ubuntu の使い方 ▶ Python のまとめ(Google Colaboratory を含む) ▶ C/C++

                                                            • Scikit-learnが実験的にGPU対応していたので調査してみた! - Qiita

                                                              はじめに みずほリサーチ&テクノロジーズ株式会社の@fujineです。 いきなりですがAIエンジニアの皆さん、scikit-learnが実験的にGPUに対応していたこと、ご存知でしょうか? scikit-learnは機械学習分野における古参パッケージの1つです。多様な機能を提供する一方、FAQにて「GPUに対応する予定はない(キリッ)」と公式宣言しており、scikit-learnが好きな自分としては「勿体無いなぁ」と常々感じていました。 そんな中、何気なくRelease Highlights for 1.2を読んでいたら以下文面を発見!しかも約半年前の2022年12月にリリースされてる… Experimental Array API support in LinearDiscriminantAnalysis Experimental support for the Array API sp

                                                                Scikit-learnが実験的にGPU対応していたので調査してみた! - Qiita
                                                              • General Information

                                                                This document provides technical information for migration from Chainer to PyTorch. General InformationConcepts and components in both frameworksArray LibraryChainer uses NumPy/CuPy (xp.ndarray) as an array library, and wraps them as chainer.Variable to support autograd. Similarly, PyTorch uses ATen (at::Tensor (C++)) as an array library ("tensor library" in PyTorch terms), and wraps it as torch::

                                                                • CuPy 入門 — ディープラーニング入門:Chainer チュートリアル

                                                                  CuPy 入門¶ CuPy は NumPy と高い互換性を持つ数値計算ライブラリです。 NumPy で提供されている多くの関数を NVIDIA GPU (Graphics Processing Unit) で実行することで簡単に高速化できるように設計されています。 GPU とは¶ GPU (graphics processing unit) は 3D グラフィックスの描画や、画像処理を高速に計算できるように設計された演算装置です。 一方、一般的な計算で使用される CPU (central processing unit) は、幅広く様々な処理で利用されることを想定して設計されています。 そのため、GPU と CPU ではそれぞれ、得意な計算の種類が異なります。 GPU は、条件分岐を多用するような複雑な計算には向かない一方、行列計算のようなシンプルな計算を大量に並列処理する必要がある場合は

                                                                    CuPy 入門 — ディープラーニング入門:Chainer チュートリアル
                                                                  • Kaggle-Shopee コンペの振り返りとソリューション

                                                                    Kaggle-Shopee コンペの振り返り 2021/03/09~2021/05/11まで開催していたShopee コンペの振り返りになります. 2週間程度しか手を動かせなかったですが,久しぶりに参加したので備忘録として記録を残しておきます.最終的な結果は179th/2464で銅メダルで,特に凝ったことは何もしていなかったので,妥当かなと思います.このコンペは上位10チーム中7チームが日本人チームで,日本人のレベルの高さを改めて実感できるコンペでした! 概要 コンペの内容は簡単に言うと,画像とテキスト情報を用いて、2つの画像の類似性を比較し,どのアイテムが同じ商品であるかを予測するコンペになります. 開催期間: 2021/03/09 ~ 2021/05/11 参加チーム数: 2464 予測対象: posting_id 列にマッチする全ての posting_id を予測する.ただし,pos

                                                                      Kaggle-Shopee コンペの振り返りとソリューション
                                                                    • Writable Arrow_Fdwと、PL/CUDAがお払い箱になる話 - KaiGaiの俺メモ

                                                                      昨年ラストのブログ記事は、pg2arrowに--appendモードを付けてApache Arrowファイルへの追記を行うというトピックだった。 kaigai.hatenablog.com 実は内部的には、PG-StromのArrow_Fdwとpg2arrowのコードは大半を共有していて*1、入り口がスタンドアロンのlibpqを使うツールなのか、PostgreSQLのFDW APIなのかという程度の違いしかない。 そこで、Arrow_Fdw外部テーブルに対してINSERT文を実行できるようにして、PostgreSQL側でもApache Arrowファイルへの追記をできるようにしてみた。これは後述の、Python向け各種モジュールとのデータ交換を目的とした機能強化である。 Writable Arrow_Fdw Arrow_Fdw外部テーブルを書き込み可能にするには、テーブルオプションに wri

                                                                        Writable Arrow_Fdwと、PL/CUDAがお払い箱になる話 - KaiGaiの俺メモ
                                                                      • Ruby ML for Python Coders

                                                                        Curious to try machine learning in Ruby? Here’s a short cheatsheet for Python coders. Data structure basics Numo: NumPy for Ruby Daru: Pandas for Ruby Libraries Category Python Ruby Multi-dimensional arrays NumPy Numo Data frames Pandas Daru, Rover Visualization Altair Vega Predictive modeling Scikit-learn Rumale Gradient boosting XGBoost, LightGBM XGBoost, LightGBM Deep learning PyTorch, TensorFl

                                                                          Ruby ML for Python Coders
                                                                        • メディカルAI専門コース オンライン講義資料

                                                                          5. 実践編: MRI画像のセグメンテーション¶ 画像を対象とした深層学習の応用技術には様々なものがあります.例えば,画像の中の個別の物体の周りを矩形で囲むようにして検出する物体検出や,画像内で個別物体が占める領域を認識する画像セグメンテーションなどがあります. 物体検出は,対象物体の「種類」と「位置」を認識する技術であるといえます. (上図:物体検出の例.矩形で対象物体を囲い,そのクラスを答えるタスク.元画像はPascal VOCデータセットより.これにChainerCVによるFaster R-CNN(両者とも後述)を適用した結果.) 画像セグメンテーションには2種類あります.1つは,個別の物体を区別するInstance-aware Segmentationです.もう一つは,同一クラスの物体であれば個を区別しないSemantic Segmentationです.今回は,後者を扱います. (

                                                                            メディカルAI専門コース オンライン講義資料
                                                                          • Debugging a Mixed Python and C Language Stack | NVIDIA Technical Blog

                                                                            Debugging is difficult. Debugging across multiple languages is especially challenging, and debugging across devices often requires a team with varying skill sets and expertise to reveal the underlying problem. Yet projects often require using multiple languages, to ensure high performance where necessary, a user-friendly experience, and compatibility where possible. Unfortunately, there is no sing

                                                                              Debugging a Mixed Python and C Language Stack | NVIDIA Technical Blog
                                                                            1