並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 6 件 / 6件

新着順 人気順

WSL2の検索結果1 - 6 件 / 6件

  • 【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境

    はじめに WSL2(Windows Subsystem for Linux 2)は、Microsoft Windows上でLinuxカーネルを直接実行できるようにする機能です。 この記事ではWSL2環境にDockerを導入しGPUを用いた機械学習環境を構築する手順を紹介します。 構築イメージは以下の図の通りです。NvidiaGPUを搭載したマシンにWSL2環境を構築します。Dockerを用いてコンテナを用意し、CUDAは各コンテナ内のCUDA Toolkitを用いて利用します。 今回開発するPCのスペックは以下の通りです。 Windows 11 Windows version: 22H2 GPU:NVIDIA Geforce RTX 3060 12GB 設定 1. WSL2を有効化 デフォルトではWSL2環境が無効化されている可能性があるので、始めに有効化しておきましょう。 「コントロール

      【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境
    • Windows Subsystem for Linux(WSL)のGUI設定画面が間もなくリリース、メモリの自動縮退機能は正式版に

      Windows Subsystem for Linux(WSL)のGUI設定画面が間もなくリリース、メモリの自動縮退機能は正式版に マイクロソフトは、Windows上でLinuxの機能を利用できるWindows Subsystem for Linux(WSL)のGUIによる設定画面を開発中であることを明らかにしました。 また、現在実験的機能となっているメモリの自動縮退機能が正式版になることも明らかにしました。 WSLのGUI設定画面が登場 これまでWSLの設定は「.wslconfig」ファイルによって行う必要がありました。 間もなく、この設定ファイルと互換性のあるGUI設定画面が登場予定です。これにより、WSLのメモリサイズ、プロセッサ数、スワップサイズやスワップファイル、セーフモードでの起動など、これまで設定ファイルを書き換える必要があった設定をGUIから容易に行えるようになります。 メ

        Windows Subsystem for Linux(WSL)のGUI設定画面が間もなくリリース、メモリの自動縮退機能は正式版に
      • WSLの導入・使用関連で陥りやすいポイント - Qiita

        はじめに 私は普段、検証用のLinux環境として、個人のWindows PC上に導入した仮想化ソフトウェア(VMWare Workstation Pro)内にゲストOSとしてインストールしたLinuxを使用しています。 一方、仕事用のWindows PCの場合は、基本的に社内で承認されたソフトウェアのみ利用可能であるため、簡単に社外のサイトから仮想化ソフトウェアを導入し、その中にLinuxをインストールするということができません。ただ、Linux環境があると、Linuxでしか対応してないコマンド等があるので、何かと便利です。 そこで、仕事用のPCに限り、今回WSL(Windows Subsystem Linux)を導入してLinux環境を作成しました。 ただ、仮想化ソフトウェア上にLinuxをインストールする場合と違い、色々つまずきポイントがありましたので、WSLを導入・使用する上で、よく

          WSLの導入・使用関連で陥りやすいポイント - Qiita
        • Difyをローカルで動かしてRAGまで試してみる

          Difyを試してみました Difyが話題だったので、少し試してみました。一言でいうとOSS版の高機能ChatGPTのカスタムGPT(GPTs)でしょうか。より詳しくはnpaka先生の記事を参考にしてください。 ChatGPTの有料版でできること以上のことができます。機能も多機能で、少し触った感じでは完成度も高いように感じました。 クラウド版を使うこともできますし、ローカルで自前でサーバーを立てることもできます。GPTsに比べた分かりやすいメリットある使い道は、容量制限なく手軽にローカルでRAGをクラウドにデータをアップロードできる点でしょうか。 それ以外には、GPT4以外のClaude 3 OpusなどのLLMも使えたり、細かい設定を切り替えたりできるので、手軽に色々できそうです。ただ、結構できること多いので少し詳しい人向けかもしれません。 Difyのローカルセットアップ方法 クラウド版は

            Difyをローカルで動かしてRAGまで試してみる
          • DifyでローカルLLMを使ってみよう!|marumarumaru

            Difyで選択できるLLMモデルDifyは特定のモデルに縛られることなく様々なモデルを利用することが出来ます。新しいモデルにもすぐに対応してくれるのも嬉しいポイントです。 新しいモデルもすぐに使えるようになる今回はOpenAIやGoogleなどのモデルではなく、ローカルで利用なLLMをDifyで使えるようにする手順をご紹介します。 LMStudioを準備しよう!実行環境Windows11(RAM 32GB) WSL2 ubuntu Dify:0.6.5(Docker) LMStudio:0.2.21 cursor LMStudioとは?LM Studioは、大規模言語モデル(LLM)を手軽に試せるツールです。プログラミングの知識がなくても、GUIベースの操作でLLMを使った文章生成や会話ができます。(by Perplexity) LMStudioの嬉しい点としては、GPUが無くてもローカル

              DifyでローカルLLMを使ってみよう!|marumarumaru
            • 型安全なシェルスクリプトを書けるプログラミング言語Amberを使ってみた

              シェルスクリプトを型安全に書きたいと考える人もいると思います。 そういった人におすすめのRust製プログラミング言語Amberを使ってみたので簡単に紹介します。 Write your scripts in a modern type-safe and runtime-safe programming language that handles many bugs and mistakes during compilation process. GitHub Star Historyによると最近一気にGitHubのスター数を獲得したようです。 この記事の内容は現時点(2024/05/19)の以下の公式ドキュメントをベースに、追加でソースコードを調べて試した結果を基に書いています。 Discordで活発に議論が行われており、READMEや公式ドキュメントも頻繁に更新されているようなので、この記

                型安全なシェルスクリプトを書けるプログラミング言語Amberを使ってみた
              1