並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 90件

新着順 人気順

OpenCLの検索結果1 - 40 件 / 90件

OpenCLに関するエントリは90件あります。 GPUNVIDIACUDA などが関連タグです。 人気エントリには 『CPUとGPUのマルチスレッディングの違いについて - arutema47's blog』などがあります。
  • CPUとGPUのマルチスレッディングの違いについて - arutema47's blog

    "Locality is efficiency, Efficiency is power, Power is performance, Performance is King", Bill Dally マルチスレッディングとは? CPUとGPUのマルチスレッディングの違いをブログにまとめていたけど例によって誰も興味なさそう— arutema47 (@arutema47) 2021年8月16日 つぶやいたら読みたい方が多そうだったので完成させました。 マルチスレッディングとはメモリ遅延を隠蔽しスループットを上げるハードウェアのテクニックです。 ただCPUとGPUで使われ方がかなり異なるため、その違いについて考えてみる記事です。 (SIMDについて並列プログラミングの観点から触れるべきでしたが、時間無いマルチスレッディングに注目するため初版では省きました。) 本記事について 本記事はCPUとG

      CPUとGPUのマルチスレッディングの違いについて - arutema47's blog
    • GPUでZIPパスワードを解析する - Qiita

      企業間のファイルのやり取りにZIPファイルの暗号化がされていることが多いのですが、その暗号は意味がなかったり、弱かったり、余計にセキュリティリスクが高くなっています。ZIPの暗号化が使えないことを証明するにはパスワードを解析するのが一番です。 パスワードが解析できるなら、もうあとからパスワードを送る必要はないのです。 用意するもの Windows PC Windows10を使いました。 GPU できる限り早いやつ ノートPCなので、外付けGPUケースにThunderbolt3でGPUを接続しています。 GTX 2080とケースで 10万円ぐらいかかっています。 CUDA Toolkit あらかじめ入れておきましょう。 hashcat hashcatのWindows版で公式サイトからダウンロードしたもので、バージョンが5.1.0の場合は古いので対応していません。 Windows版のJohn

        GPUでZIPパスワードを解析する - Qiita
      • 秒速で10億レコードを処理する話 - KaiGaiの俺メモ

        これまでのPG-Stromの性能測定といえば、自社保有機材の関係もあり、基本的には1Uラックサーバに1CPU、1GPU、3~4台のNVME-SSDを載せた構成のハードウェアが中心だった。*1 ただソフトウェア的にはマルチGPUやNVME-SSDのストライピングに対応しており、能力的にどこまで伸ばせるのかというのは気になるところである。 そこで、方々に手を尽くして、次のようなベンチマーク環境を整備してみた。 (機材をお貸し頂いたパートナー様には感謝感激雨あられである) 4UサーバのSYS-4029GP-TRTというモデルは、GPUをたくさん乗っけるためにPCIeスイッチを用いてPCIeスロットを分岐している。ちょうど、PCIeスイッチ1個あたり2個のPCIe x16スロットが用意されており、同じPCIeスイッチ配下のデバイス同士であれば、完全にCPUをバイパスしてPeer-to-Peerのデ

          秒速で10億レコードを処理する話 - KaiGaiの俺メモ
        • 【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境

          はじめに WSL2(Windows Subsystem for Linux 2)は、Microsoft Windows上でLinuxカーネルを直接実行できるようにする機能です。 この記事ではWSL2環境にDockerを導入しGPUを用いた機械学習環境を構築する手順を紹介します。 構築イメージは以下の図の通りです。NvidiaGPUを搭載したマシンにWSL2環境を構築します。Dockerを用いてコンテナを用意し、CUDAは各コンテナ内のCUDA Toolkitを用いて利用します。 今回開発するPCのスペックは以下の通りです。 Windows 11 Windows version: 22H2 GPU:NVIDIA Geforce RTX 3060 12GB 設定 1. WSL2を有効化 デフォルトではWSL2環境が無効化されている可能性があるので、始めに有効化しておきましょう。 「コントロール

            【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境
          • DirectX ❤ Linux - DirectX Developer Blog

            DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co

              DirectX ❤ Linux - DirectX Developer Blog
            • Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載

              Nintendo Switch 2の詳細スペックが判明。GPU内蔵のCUDAコアは1280基、CPUはArm A78を8コア搭載 Nintendo Switch 2についてはGamescom2023にて関係者内でデモ機が披露され、そこでUnreal Engine 5などが動作しているデモが行われたという噂が出るなど、発売に向けて着々と開発が進められているためかここ最近はリーク情報が多く出始めています。 今回はこの中でも今まで明らかにされていたAmpereアーキテクチャーのGPUを搭載すると言う情報に加えて、このGPUに内蔵されるCUDAコア数やCPUのアーキテクチャーとコア数、そして製造プロセスに関する情報が登場しました。 Samsung Foundry 7LPH(8-nanometer improved version) — Revegnus (@Tech_Reve) September

                Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載
              • DockerでのディープラーニングGPU学習環境構築方法 - Qiita

                DockerでGPU学習環境構築 背景 ディープラーニングでローカルPCのGPUを使った学習環境を構築した経験のある人は、一度はNVIDIAのドライバやCUDA周りでハマった経験があるのではないでしょうか?そんなバッドノウハウ(怪文章?)をまとめたQiita記事(TensorFlowでGPU学習させるためにCUDA周りではまったときの対処法)に、なんとNVIDIAの中の人(@ksasaki さん)から「Dockerを使えば…人類は幸せになれる(超意訳)」とのコメントをいただきました! 喜び勇んで、NVIDIAのドライバをアップデートしたところ、そこには文鎮と化した起動しないLinuxマシンが…からあげのNVIDIAとの戦いは始まったばかりだ!(戦ってません) DockerでGPU学習環境構築するメリット うまく構築できればという前提で、以下のようなメリットがあります。 様々なフレームワーク

                  DockerでのディープラーニングGPU学習環境構築方法 - Qiita
                • CUDAを一枚の絵にまとめてみた - OPTiM TECH BLOG

                  まえがき 初めまして、R&Dチームの宮﨑です。趣味はFPSをやってます。150時間やってますが未だにドンかつを食べられていません。普段は深層学習のベンチマークを取ったりしています。 実はひと昔前からあった深層学習。近年実用性が増して一大ブームとなっています。実用的になった背景の一つとしてGPUを用いた高速化により深層学習の学習及び推論が実用的な時間で実行できるようになったことがあります。NVIDIAから提供されるCUDAを用いるとC言語に拡張を加えた形式でCPU+GPUのヘテロジニアスコンピューティングを記述できます。 CUDAを使用するにはCPU+GPUの環境がどのようなハードウェア構成をしており、その上でCUDAがどのようなシステムを構築しているのかを理解する必要があります。この理解なしに漫然とサンプルコードを真似するだけでは意図通りのパフォーマンスが出なかったり、そもそもAPIの意味

                    CUDAを一枚の絵にまとめてみた - OPTiM TECH BLOG
                  • CUDA on WSL 2のすすめ - Qiita

                    前置き 個人マシンで3090 Tiが使えるようになり、ウキウキでEfficientNetV2を回してみると…共有マシンの3090よりも遅い。 どうやらWindowsではパフォーマンスが出ないというウワサは本当だったらしい。(他の要素も検証しろ! 「Windowsが許されるのは小学生までだよねー」などとイジられながらも頑なにWindowsで粘ってきたが そろそろ潮時だろうかと考えていると、CUDA on WSL 2がnear-nativeなパフォーマンスで動くと聞こえてきた。 結果、WSL 2+Docker環境で学習を回すと、Windowsネイティブ環境と比べて実行時間が16%短縮された。 導入方法 以下のページで丁寧に解説されています。 補足: CUDAをDockerから使う場合は「3. CUDA Support for WSL 2」の手順は不要です。 罠1 systemctlが使えないと

                      CUDA on WSL 2のすすめ - Qiita
                    • 待ってました CUDA on WSL 2 - Qiita

                      最新情報 (2022-06-15 時点) エヌビディアの佐々木です。 2020 年 6 月にこの記事を書いて以来、Windows Insider Preview や NVIDIA ドライバの新しいビルドが出たタイミングなどで記事を更新してきましたが、あちこちに注釈が増えて読みづらくなってきたので、今後はこの「最新情報」セクションに新しい情報を集約しようと思います。あと、更新履歴は記事末尾へ送りました。 私が動作を確認したバージョン Windows のビルド: 22621.1 (Windows 11 バージョン 22H2) NVIDIA ドライバ: 512.95 nvidia-smi コマンドの GPU-Util 欄が "N/A" になってしまう問題は解決! 実行した NGC コンテナイメージ nvcr.io/nvidia/tensorflow:22.05-tf2-py3 Docker De

                        待ってました CUDA on WSL 2 - Qiita
                      • Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判

                        AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を

                          Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判
                        • AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中

                          NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera

                            AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中
                          • PyTorchでの学習・推論を高速化するコツ集 - Qiita

                            本記事では、NVIDIAから発表されているPyTorchでのディープラーニングを高速化するコツ集を紹介します。 【※NEW】22年6月新記事:スクラム関連の研修・資格のまとめ & おすすめの研修受講方法 本記事について 本記事は、NVIDIAのArun Mallyaさんの発表、 「PyTorch Performance Tuning Guide - Szymon Migacz, NVIDIA」 に、説明やプログラムを追加して、解説します。 本記事のポイントは、Andrej KarpathyがTwitterで呟いている通りとなります。 good quick tutorial on optimizing your PyTorch code ⏲️: https://t.co/7CIDWfrI0J quick summary: pic.twitter.com/6J1SJcWJsl — Andrej

                              PyTorchでの学習・推論を高速化するコツ集 - Qiita
                            • NVIDIAがCUDAを他のハードウェア上で実行することを禁止

                              NVIDIAが、GPU向けのコンピューティングプラットフォームとして提供している「CUDA」のソフトウェア利用許諾契約(EULA)の中で、翻訳レイヤーを通じてNVIDIA以外のハードウェアプラットフォームで実行することを禁止していることがわかりました。もともとこの条項はNVIDIAのサイト上で公開されているオンライン版のEULAには含まれていましたが、インストールしたCUDAのドキュメントにも含まれるようになったとのことです。 License Agreement for NVIDIA Software Development Kits — EULA https://docs.nvidia.com/cuda/eula/index.html Nvidia bans using translation layers for CUDA software — previously the prohi

                                NVIDIAがCUDAを他のハードウェア上で実行することを禁止
                              • NVIDIA Docker って今どうなってるの? (20.09 版)

                                ※ この記事は以前私が Qiita に書いたものを、現状に合わせて更新したものです。(内容、結構変わりました) ※ 2021/01/08 CUDA Toolkit 11.2 のリリースに伴い、「NVIDIA ドライバのインストール」節を更新しました。 ※ 2020/09/24 CUDA Toolkit 11.1 のリリースに伴い、「NVIDIA ドライバのインストール」節を更新しました。 エヌビディアの佐々木です。 この記事では、Docker 等のコンテナで GPU を利用するための「NVIDIA Docker」の現状を紹介します。 「Docker で GPU を使うためにあちこち調べてみたけれど、nvidia-docker コマンドを使えばよいとか、--rutime=nvidiaオプションが必要とか、はたまた Docker が標準で GPU をサポートしたとか、色々な情報があってよくわか

                                  NVIDIA Docker って今どうなってるの? (20.09 版)
                                • The Windows Subsystem for Linux BUILD 2020 Summary

                                  This year at an all virtual BUILD conference we had many exciting announcements for the Windows Subsystem for Linux (WSL)! This blog post gives you a summary of all the WSL news, including what’s available now and what you can expect in the future. WSL’s BUILD news at a glance Available this month Support for WSL 2 distros is coming this month in the Windows 10 May 2020 Update Docker Desktop relea

                                    The Windows Subsystem for Linux BUILD 2020 Summary
                                  • Supercomputing Contest 2013/GPUプログラミング資料 - Supercomputing Programing Contest Official Site

                                    2023-09-13 SupercomputingContest2023 2023-09-06 Supercomputing Contest News News/sc230906 2023-09-01 News/sc230830 2023-08-28 News/sc230828 SupercomputingContest2023/本選結果 2023-08-01 MenuBar 2023-06-29 News/sc230629 SupercomputingContest2023/予選結果 2023-06-12 SupercomputingContest2023/予選・認定問題Q&A 2023-06-01 SupercomputingContest2023/問題および関連ファイル群更新履歴 2023-05-31 News/sc230531 2023-05-30 News/sc230530 20

                                    • AppleとNvidiaの関係、終焉へ

                                      AppleとNvidiaの関係、終焉へ2019.11.26 12:3078,657 Alex Cranz - Gizmodo US [原文] ( 塚本直樹 ) すっかりAMD派なAppleです Nvidia(エヌビディア)とApple(アップル)の長期的な関係の名残も、まもなく消え去ります。Nvidiaは今週月曜日にCUDAプラットフォームの次期アップデートのリリースノートを公開し、「CUDAアプリケーションを開発・実行するためのCUDA 10.2(ツールキットとNVIDIAドライバ)は、macOSをサポートする最後のリリースです」と明かしました。 つまり、将来のCUDAはApple製品をサポートせず、これによりハッキントッシュのコミュニティを含む多くのプロフェッショナルな業界が影響を受けることになります。 CUDAはライバル製品にない強さCUDAとは、プログラムがNvidiaのハードウェ

                                        AppleとNvidiaの関係、終焉へ
                                      • 西川善司の3DGE:NVIDIAが投入する20 TFLOPS級の新GPU「A100」とはいったいどのようなGPUなのか?

                                        西川善司の3DGE:NVIDIAが投入する20 TFLOPS級の新GPU「A100」とはいったいどのようなGPUなのか? ライター:西川善司 カリフォルニア州の自宅で撮影したビデオで基調講演を行ったJensen Huang氏 去る2020年5月14日,NVIDIAは,同社CEOのJensen Huang氏によるオンライン基調講演で,新しい「Ampere」アーキテクチャ採用の新GPU「A100」を発表した。 Ampereとは,電流量の単位である「アンペア」の語源となったフランスの物理学者アンドレ=マリ・アンペール(André-Marie Ampère)にちなんだ開発コードネームだ。NVIDIAは近年,新しいGPUアーキテクチャの開発コードネームに,歴史に名を残した科学者の名を採用している。GeForce RTX 20シリーズの「Turing」や,その前世代の「Volta」も同様だ。 SXM4

                                          西川善司の3DGE:NVIDIAが投入する20 TFLOPS級の新GPU「A100」とはいったいどのようなGPUなのか?
                                        • NVIDIA CUDAがWindows Subsystem for Linux上で利用可能に

                                            NVIDIA CUDAがWindows Subsystem for Linux上で利用可能に
                                          • 【西川和久の不定期コラム】 CUDAコア128基のGPUを搭載したAI/深層学習向け「Jetson Nano開発者キット」を試す

                                              【西川和久の不定期コラム】 CUDAコア128基のGPUを搭載したAI/深層学習向け「Jetson Nano開発者キット」を試す
                                            • グリーンバックはもういらない!?Background Mattingでどこでも合成(Windows10、Python 3.6) - Qiita

                                              グリーンバックはもういらない!?Background Mattingでどこでも合成(Windows10、Python 3.6)Python画像処理CUDA機械学習DeepLearning はじめに Zoomでバーチャル背景が流行っていますね。グリーンバックを必要とせずに一枚の背景画像から人物を切り抜き、ピクセルレベルで違和感なく合成できるBackground Mattingをやってみました。CPUでも動くよ。 システム環境 Windows10(RTX2080 Max-Q、i7-8750H、RAM16GB) Anaconda 2020.02 Python 3.6 CUDA 10.0 cuDNN 導入 Background-Mattingからクローンします。 back-matting環境を作ります。

                                                グリーンバックはもういらない!?Background Mattingでどこでも合成(Windows10、Python 3.6) - Qiita
                                              • NVIDIA、macOSをサポートした最後のCUDA Toolkiをv10.2リリース。次期アップデートでmacOSは非サポートに。

                                                NVIDIAがCUDA Toolki 10.2をリリースすると共に、次期アップデートからはmacOSは非サポートになると発表しています。詳細は以下から。 NVIDIAは現地時間2019年11月17日、ToolkitとNVIDIAドライバを含んだCUDA v10.2をリリースしましたが、同リリースノートによると、CUDA Toolkit v10.2はmacOSをサポートする最後のアップデートとなるそうです。 CUDA 10.2 (Toolkit and NVIDIA driver) is the last release to support macOS for developing and running CUDA applications. Support for macOS will not be available starting with the next release of

                                                  NVIDIA、macOSをサポートした最後のCUDA Toolkiをv10.2リリース。次期アップデートでmacOSは非サポートに。
                                                • GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ

                                                  GPUはCPUよりもはるかに多くのコアを備えており、多数の並列処理を行う事が可能です。そうしたGPUの性能を活用するために必要な知識を、ITエンジニアのリジュル・ラジェシュさんがブログにまとめています。 GPU Survival Toolkit for the AI age: The bare minimum every developer must know https://journal.hexmos.com/gpu-survival-toolkit/ 現代のAIモデルで使用されているTransformerアーキテクチャは並列処理を活用して大きく性能を向上させており、そうしたAIの開発に関わる場合は並列処理についての理解が必須になってきます。CPUは通常シングルスレッドの逐次処理性能が高まるように設計されており、複雑なAIモデルで必要となる、多数の並列計算を効率的に分散して実行するのに

                                                    GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ
                                                  • パスワード付き ZIP ファイルを hashcat + JtR + GPU で総当たりしてみる - CUBE SUGAR CONTAINER

                                                    少し前に以下のツイートが話題になっていた。 hashcat というツールと GTX 2080 Ti を 4 台積んだマシンで ZIP ファイルのパスワードを探索するというもの。 このツイートでは 15 桁までわずか 15 時間 (!) で探索できたとしている。 その探索速度はなんと 22.7 ZH/s (Z = ゼッタ = Giga<Tera<Peta<Exa<Zetta) に及ぶらしい。 Support for PKZIP Master Key added to #hashcat with an insane guessing rate of 22.7 ZettaHash/s on a single RTX 2080Ti. All passwords up to length 15 in less than 15 hours with only 4 GPUs! Excellent con

                                                      パスワード付き ZIP ファイルを hashcat + JtR + GPU で総当たりしてみる - CUBE SUGAR CONTAINER
                                                    • GitHub - chrxh/alien: ALIEN is a CUDA-powered artificial life simulation program.

                                                      Artificial LIfe ENvironment (ALIEN) is an artificial life simulation tool based on a specialized 2D particle engine in CUDA for soft bodies and fluids. Each simulated body consists of a network of particles that can be upgraded with higher-level functions, ranging from pure information processing capabilities to physical equipment (such as sensors, muscles, weapons, constructors, etc.) whose execu

                                                        GitHub - chrxh/alien: ALIEN is a CUDA-powered artificial life simulation program.
                                                      • NVIDIA、macOSのサポートを正式に終了した「CUDA Toolkit v11」をリリース。MacではCUDAアプリの開発と実行は出来ない状態に。

                                                        NVIDIAがmacOSのサポートを正式に終了した「CUDA Toolkit v11」をリリースしています。詳細は以下から。 NVIDIAは現地時間2020年06月05日、GPUプログラミング開発ツール「CUDA Toolkit」をバージョンv11(v11.0.171)へアップデートし、昨年11月にアナウンスしていたとおりmacOSのサポートを正式に終了したと発表しています。 CUDA 11.0 does not support macOS for developing and running CUDA applications. Note that some of the CUDA developer tools are still supported on macOS hosts for remote (target) debugging and profiling. See the

                                                          NVIDIA、macOSのサポートを正式に終了した「CUDA Toolkit v11」をリリース。MacではCUDAアプリの開発と実行は出来ない状態に。
                                                        • GPU向けコンパイラの最適化の紹介と論文のサーベイ - Jicchoの箱

                                                          この記事では,私の研究分野であるGPU向けコンパイラの最適化の紹介と論文のサーベイを行う. 以下,随時更新. 分岐発散 (Branch Divergence) 分岐発散とは Independent Thread Scheduling 分岐発散に対する最適化 Software based approaches Hardware based approaches その他 サーベイ論文 カーネル融合 (Kernel Fusion) Kernel Fusionとは 垂直融合(vertical fusion) 水平融合(horizontal fusion) Inner Thread Block Inter Thread Block カーネル融合に関する論文 その他のGPU関連の論文 Dimensionally redundant instruction elimination Others 分岐発散

                                                            GPU向けコンパイラの最適化の紹介と論文のサーベイ - Jicchoの箱
                                                          • 【Hothotレビュー】 中国製ゲーミングGPU「Moore Threads MTT S80」のパフォーマンスを検証する

                                                              【Hothotレビュー】 中国製ゲーミングGPU「Moore Threads MTT S80」のパフォーマンスを検証する
                                                            • GitHub - ggerganov/llama.cpp: LLM inference in C/C++

                                                              The main goal of llama.cpp is to enable LLM inference with minimal setup and state-of-the-art performance on a wide variety of hardware - locally and in the cloud. Plain C/C++ implementation without any dependencies Apple silicon is a first-class citizen - optimized via ARM NEON, Accelerate and Metal frameworks AVX, AVX2 and AVX512 support for x86 architectures 1.5-bit, 2-bit, 3-bit, 4-bit, 5-bit,

                                                                GitHub - ggerganov/llama.cpp: LLM inference in C/C++
                                                              • "RWKV_CUDA_ON"を1に設定してRWKVを高速化する - Qiita

                                                                ローカル環境でも高速で動作するLLMとして話題のRWKVですが、ドキュメントを見ていると環境変数の"RWKV_CUDA_ON"を1に設定することでより高速で動くということなので試してみました。 設定を変更するときに1箇所エラーで躓いたところがあったのでそちらも記録しておきます。 RWKVとは RWKVとはTransformerレベルの性能を持つRNNです。他のLLMと同様に高性能でありつつ推論が高速でVRAMを節約しているのが特徴です。 RWKVをチャットで使えるようにしたものとしてChatRWKVがあります。 また、RWKVをAlpacaデータセットなどを使用してファインチューニングしたものとしてRavenがあります。 ChatRWKVの使い方は次の記事で分かりやすく解説されています。 またRWKVのファインチューニングの方法については以下の記事で解説されています。 RWKV_CUDA_

                                                                  "RWKV_CUDA_ON"を1に設定してRWKVを高速化する - Qiita
                                                                • WSL2にCUDA on WSLをインストールする (1/2)

                                                                  前回は、WSL2からGPUが利用可能になったことを紹介したが(「Windows 10のWSL2からGPUが使えるようになった」)、今回はその続きとしてWSL2でGPUを使う設定を実際にしてみる。いくつか条件はあるものの、作業自体はそれほど難しくない。ただし、GPU利用といっても現時点では計算処理、特にNVIDIAのGPUを使った機械学習関係の処理が主な目的となるので、この分野に興味がないとせっかく設定しても使い道に困るかもしれない。 ここでは、NVIDIAのGPUを搭載したマシンに「CUDA on WSL」を、WSL2側にDockerなどをインストールして、NVIDIAが機械学習用に提供しているコンテナーを動かしている。いわゆるAI開発用の環境だが、これまで、Linuxをインストールしたマシンを用意するのが普通だった。しかし、CUDA on WSLを使えば、WindowsマシンのWSL2か

                                                                    WSL2にCUDA on WSLをインストールする (1/2)
                                                                  • CUDAによる局所特徴量計算の高速化とソースコード公開 - Fixstars Tech Blog /proc/cpuinfo

                                                                    このブログは、株式会社フィックスターズのエンジニアが、あらゆるテーマについて自由に書いているブログです。 はじめに こんにちは、エンジニアの高木です。 私は現在、adaskitという社内の自動運転関連のオープンソースプロジェクトに携わっており、プロジェクトの成果としてこれまでlibSGMやcuda-bundle-adjustmentなどを公開しています。 今回はVisual SLAMやSfM(Structure from Motion)で行われる局所特徴量計算について、CUDAによる高速化に取り組んだ話を紹介します。また、そのソースコードをcuda-efficient-featuresという名前でGitHubに公開しました。 fixstars/cuda-efficient-features 背景 局所特徴量計算 Visual SLAMやSfMでは、2つの視点間の相対的なカメラ姿勢を推定する

                                                                      CUDAによる局所特徴量計算の高速化とソースコード公開 - Fixstars Tech Blog /proc/cpuinfo
                                                                    • 角度を用いた深層距離学習(deep metric learning)を徹底解説 -PytorchによるAdaCos実践あり-|はやぶさの技術ノート

                                                                      こんにちは。 現役エンジニアの”はやぶさ”@Cpp_Learningです。最近、距離学習を楽しく勉強しています。 今回は、角度を用いた深層距離学習のSphereFace・CosFace・ArcFace・AdaCosについて勉強したので、備忘録も兼ねて本記事を書きます。

                                                                        角度を用いた深層距離学習(deep metric learning)を徹底解説 -PytorchによるAdaCos実践あり-|はやぶさの技術ノート
                                                                      • Windows10とCUDAでPyTorchを使う準備 - ITips

                                                                        Windows10のGPU環境でPyTorchやTensorFlowを利用したい。 そのためにはCUDAのcudnnのインストールが必要となる。 今回はWindows10とCUDAでPyTorchを使う準備について紹介する。 WindowsでCUDAを使う準備 PyTorchにしろTensorFlowにしろ、GPU環境で利用するにはCUDAの準備が必要だ。 WindowsでCUDAを使う準備としては以下の通り。

                                                                          Windows10とCUDAでPyTorchを使う準備 - ITips
                                                                        • 誰得なのか不明ですが2000円でCUDAを試してみました - Qiita

                                                                          こんにちは @ixiv です。 「機械学習を勉強したい」と意欲を燃やす方々の中には「できたらGPGPUも!」と考えてる方も多いような気がします。とはいえ、自分のようなぺーぺーの初心者の方は、1本数万円するGPUで勉強をはじめよう、という事も難しく「なんとなくCUDAというものに触れてみたいなぁ」といったモチベーションに留まっているかと思います。 そこで、今回はまさかの 2020年の年末に2011年3月15日(僕の誕生日)発売のグラフィックボード『GeForce GTC550Ti』をメルカリで2000円で入手し、お手軽CUDA環境を立ち上げ、YOLO+CUDA+OpenCVでリアルタイム物体検出(Object Detection)をするまでの流れをまとめます。恐らく本手順を使うのは世界に自分ひとりな気もしますが… はじめに では早速。まずPC環境と、今回の記事を作成するために参照したWEBサ

                                                                            誰得なのか不明ですが2000円でCUDAを試してみました - Qiita
                                                                          • 「GeForce RTX 2080 SUPER」レビュー。RTX 2080 SUPERの実力をRTX 2080 TiおよびRTX 2080無印と比べてみた

                                                                            RTX 2080 SUPERの実力をRTX 2080 TiおよびRTX 2080無印と比較 ZOTAC GAMING GeForce RTX 2080 SUPER Twin Fan Text by 宮崎真一 2019年7月23日22:00,NVIDIAのハイエンド向け新型GPU「GeForce RTX 2080 SUPER」(以下,RTX 2080 SUPER)搭載グラフィックスカードの販売が解禁となった。 RTX 2080 SUPERの仕様については,7月2日の発表時にレポートを掲載済みであるが,搭載カードのレビューに進む前に,軽くおさらいをしておこう。 ZOTAC GAMING GeForce RTX 2080 SUPER Twin Fan(型番:ZT-T20820F-10P) メーカー:ZOTAC Technology 販売代理店想定売価:9万1800円(※2019年7月23日現在)

                                                                              「GeForce RTX 2080 SUPER」レビュー。RTX 2080 SUPERの実力をRTX 2080 TiおよびRTX 2080無印と比べてみた
                                                                            • 「WSL 2」にCUDA対応など3つの新機能 ~「Windows 10」Build 20150がDevチャネルに。ISOイメージファイルも/「マップ」アプリの地図データは“TomTom”ベースへ

                                                                                「WSL 2」にCUDA対応など3つの新機能 ~「Windows 10」Build 20150がDevチャネルに。ISOイメージファイルも/「マップ」アプリの地図データは“TomTom”ベースへ
                                                                              • NVIDIA DockerイメージのGPGキー更新に関する備忘録 - OPTiM TECH BLOG

                                                                                R&D チームの徳田(@dakuton)です。 今年のGWあたりにCUDAのGPG更新アナウンス(NVIDIA Technical Blog: Updating the CUDA Linux GPG Repository Key)がありました。記載に従い利用環境の反映作業をしてみたところ、特にDockerイメージ向けの反映については記事に触れられていない範囲でのハマリポイントがいくつかあることがわかったため、対策についてまとめておきます。 参考(GitHub issue) NVIDIA/nvidia-docker(Public GPG key error #1631) 影響を受けているプロジェクト例 TensorFlow (Tensorflow docker image has outdated keys #56085) TorchServe (Improvements to docker

                                                                                  NVIDIA DockerイメージのGPGキー更新に関する備忘録 - OPTiM TECH BLOG
                                                                                • CUDA on WSL

                                                                                  » 1. NVIDIA GPU Accelerated Computing on WSL 2 v12.4 | PDF | Archive CUDA on WSL User Guide The guide for using NVIDIA CUDA on Windows Subsystem for Linux. 1. NVIDIA GPU Accelerated Computing on WSL 2 WSL or Windows Subsystem for Linux is a Windows feature that enables users to run native Linux applications, containers and command-line tools directly on Windows 11 and later OS builds. CUDA suppor

                                                                                  新着記事