タグ

sh2のブックマーク (2,748)

  • Linuxでのプロセス置換 - Qiita

    はじめに 導入 Linuxで使うbash等のシェルには、様々な○○置換という機能がありますが、その中でも「プロセス置換」( <(コマンド) や >(コマンド) ) というのはなかなかイメージし辛いのではないかと思います。 ※特にコマンド置換 ( $(コマンド)や`コマンド` ) と名前が紛らわしいというのもあります。 これはパイプと機能的にも仕組み的にも近いものですので、この機会にパイプとの関連性も含め、仕組みを紹介したいと思います。 環境 bash,zsh共にプロセス置換の機能を持っていますが、以下ではbashを前提として仕組みを説明します。 なお、各動作確認は x86_64 WSL1(Win10)/Ubuntu18.04.2 LTS, bash4.4.19(1) で行っています。 プロセス置換の概要 利用目的 bash manページのプロセス置換の項にも説明はあるのですが、なかなかそれ

    Linuxでのプロセス置換 - Qiita
    sh2
    sh2 2024/05/12
    「while read VAR; do シェル変数設定; done < <( A ) のプロセス置換に書き直してパイプラインを解消することで、大本のシェルに反映させられる形にできます」
  • 【特集】 電源の仕組みはこうだ!理解できれば良し悪しも分かる。これで目指せ電源マイスター

    【特集】 電源の仕組みはこうだ!理解できれば良し悪しも分かる。これで目指せ電源マイスター
    sh2
    sh2 2024/05/10
    勉強になる
  • zenncast - 技術トレンドをAIがラジオに変換

    Zennのトレンド記事をまとめてAIがラジオをつくります。毎朝7時に更新。 お便りも募集中。送っていただいたお便りはAIパーソナリティが読み上げます。

    zenncast - 技術トレンドをAIがラジオに変換
    sh2
    sh2 2024/05/09
    完成度が高い
  • Continue + Ollama でタブ補完(β)を機能させるまで

    ローカルLLMでGitHub Copilotのような開発ができるようにしました。 Continue と Ollama を用いましたが、タブ補完がβ版ということもあってか設定で躓いたので、記事にしました。 TL;DR Ollamaを起動し、API経由のアクセスが有効か確かめます config.jsonの設定後、VSCodeを再起動します(2024-05-02時点では必要) Continueのタブ補完実行時、VSCodeのOutputタブとOllamaのserver.logでデバッグを行います。 技術選定 GitHub Copilotに代わるアシスタントとしては、Cursor, Continue, Tabby を比較しました。 今回は完全ローカルで動作するContinueを選択しました。 Cursorは2024‐05‐02時点ではCursorのサーバーを経由してLLMにアクセスしているため、n

    Continue + Ollama でタブ補完(β)を機能させるまで
    sh2
    sh2 2024/05/09
    Windowsでの構築事例
  • テキスト生成APIサーバのスループットを高めるbatching algorithms

    はじめに テキスト生成モデルをAPIサーバでホストする需要が増えてきている昨今ですが1サーバでできるだけ多くのリクエストをさばくためにはどうすればよいでしょうか?もちろん高速なツールを使うことも重要ですが、それだけでは限界があります。前回の記事ではいくつかのツールを比較しましたが、どのツールでもバッチサイズを上げることで単位時間あたりの処理能力を高めることができるということがわかりました。つまりAPIサーバ側でバッチサイズを大きくする工夫をすることでより多くのリクエストをさばくことが可能になります。 今回の記事ではText Generation InferenceやvLLMなどが採用して注目を集めているContinuous batchingと呼ばれる手法について紹介します。 名称や仕組みなどについてはこれらの解説を参考にしています。 予備知識 Continuous batchingの説明に

    テキスト生成APIサーバのスループットを高めるbatching algorithms
    sh2
    sh2 2024/05/08
    社内用の推論サーバーを作りたくて、この記事と前後の記事を確認する
  • [Bug]: The Write-ahead Log (embeddings_queue) doesn't get cleaned up · Issue #1755 · chroma-core/chroma

    sh2
    sh2 2024/05/07
    chroma内部のSQLite3においてembeddings_queueテーブルのデータがずっと増え続けてしまう問題
  • GPUなサービスをそこそこな費用で運営する | Kai INUI

    A new tool that blends your everyday work apps into one. It's the all-in-one workspace for you and your team

    GPUなサービスをそこそこな費用で運営する | Kai INUI
    sh2
    sh2 2024/05/06
    Cloudflare Tunnel/tailscale/Kamalを使った今どきの自宅サーバー運用、RTX A4000はAmpere(3090)世代/16GB/1スロット/140Wで機械学習用GPUとしてコスパがよい
  • Windowsでプロセッサの周波数を固定にする - Qiita

    はじめに プロセッサの周波数は処理負荷や電源状態に応じて動的に変化します。 ここではプロセッサの周波数を固定にする方法を紹介します。 固定できる周波数はProcessor Base FrequencyとCore Speedです。 プロセッサとOSは次の通りです。 Intel Core i5-5200U Processor Processor Base Frequency = 2200 MHz Core Speed = 800 MHz Windows 10 Home 10.0.18362 "プロセッサの最大周波数"を表示する プロセッサの周波数を固定にするには"プロセッサの最大周波数"の設定が必要です。 しかし初期設定では表示されていない可能性があります。表示する手順を説明します。 コマンドプロンプトを起動します。以下を入力します。 powercfg -attributes SUB_PROC

    Windowsでプロセッサの周波数を固定にする - Qiita
    sh2
    sh2 2024/05/04
    PCのファンがうるさいときにこれで調節する
  • 【永久保存版】複数のベクトル群同士のコサイン類似度を一気に算出する方法 - Qiita

    はじめに この記事では,コサイン類似度の概要から,複数のベクトル群同士のコサイン類似度を一気に算出する方法をpythonコードを用いて解説します. コサイン類似度とは コサイン類似度を一言で表すと「2つのベクトルがどの程度似ているかを表す尺度」です.この尺度は,2つのベクトルの内積を2つのベクトルの大きさ(L2ノルム)で割ることによって計算できます. コサイン類似度は,-1~1の範囲に正規化され,その値によって以下のように解釈が異なります. 1なら「2つのベクトルの成す角度が0度 → 同じ向きのベクトル → 完全に似ている」 0なら「2つのベクトルの成す角度が90度 → 独立・直行したベクトル → 似ている/似ていないのどちらにも無関係」 -1なら「2つのベクトルの成す角度が180度 → 反対向きのベクトル → 完全に似ていない」 2つのベクトルの大きさにかかわらず,2つのベクトルの向きが

    【永久保存版】複数のベクトル群同士のコサイン類似度を一気に算出する方法 - Qiita
    sh2
    sh2 2024/05/01
    分かりやすい
  • YouTubeでみれるライブカメラ映像まとめ【作業用BGMにも】 | オモコロブロス!

    YouTubeでみれる日海外のライブカメラ映像をまとめました。動物の癒し映像から、宇宙の絶景まで盛りだくさん!【作業用BGMにも】 こんにちは、ライターの松岡です。 みなさんは自宅のリンビングでくつろいでいる時、どんな映像をテレビで見ていますか? 僕はケーブルテレビ「イッツコムチャンネル」で放送している、二子玉川の河川敷などを映すライブカメラの映像をよく見ています。 自宅にいながらリアルタイムで様々な場所の景色や様子を見るのは、地味に楽しいですよね。 今回はYouTubeでみれる、オススメのライブカメラ映像を紹介します! 鳥羽水族館 ラッコ水槽ライブカメラ 2頭のラッコが水槽で気持ちよさそうに泳いでいたり、のんびりしている様子が癒されます。 24時間配信をしているので、隙間時間にみて楽しむこともできますよ! 同じチャンネルで定期的に「ラッコのお事タイム」をライブ配信しているので、そち

    YouTubeでみれるライブカメラ映像まとめ【作業用BGMにも】 | オモコロブロス!
    sh2
    sh2 2024/04/30
    ニュージーランド自然保護局のアホウドリ中継をよく観ている https://www.youtube.com/watch?v=fDhIv9iBzWk
  • Hugging Face Courseで学ぶ自然言語処理とTransformer 【part1】

    はじめに この記事はHugging Face CourseのIntroduction~Transformers, what can they do?あたりの内容を自身の見解なども合わせてまとめたものになります。 Hugging Faceって? Hugging Faceとは主に自然言語処理のモデル開発やそれらのオープンソース提供を行っているアメリカの会社で、機械が人間と同じようにテキストを理解する技術開発に貢献することを目標としているそうです。私もこういう理念には強く共感できます。 Transformerを軸においた技術開発がメインに行われているようです。 ロゴがなんかかわいい。 Transformerについて Transformerとは系列データを逐次処理で学習するのではなく、まとめて学習させられるように設計されたモデルで、それによってGPUによる並列処理の恩恵をより受けられるようになり、

    Hugging Face Courseで学ぶ自然言語処理とTransformer 【part1】
    sh2
    sh2 2024/04/25
    あとでなぞってみる
  • LEIA: 言語間転移学習でLLMを賢くする新しい方法

    Studio Ousiaと理化学研究所に所属している山田育矢です。 この記事では、大規模言語モデル(LLM)の性能を向上させる新しい方法であるLEIA(Lightweight Entity-based Inter-language Adaptation)を紹介します。 LLMは言語によって性能に顕著な差があり、訓練に使われるテキストが最も多い英語において特に性能が高い傾向があることが知られています。LEIAは、LLMが蓄えている英語の知識を他の言語から使えるようにする訓練を施すことで、英語以外の言語でのLLMの性能を向上させる新しい手法です。 この度、英語・日語の2言語LLMであるSwallowの7Bと13Bのモデルに対してLEIAによる訓練を施して性能向上を行ったモデルを公開します。 ライセンスは、Swallowと同様のLlama 2 Community Licenseです。これらのモ

    LEIA: 言語間転移学習でLLMを賢くする新しい方法
    sh2
    sh2 2024/04/25
    こうした手法でLlama 3が日本語上手になるとうれしい
  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
    sh2
    sh2 2024/04/24
    2024年はMac Studio有力、会社でもL40Sの予算を少し削ってMac Studioを増やそうと画策している。一方2025年になればAMD Zen 5 APUのStrix HaloがLPDDR5X 8533MT/s 8 Channelで546GB/sとの噂、Ryzen AIも搭載しているので対抗馬になるかなと思っている
  • オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models

    イノベーションセンター テクノロジー部門 Generative AI PJ の内部勉強会で発表した資料です。Retrieval-Augmented Generation (RAG) において重要な役割を果たす埋め込みモデル(特に日語に特化したもの)について整理しました。

    オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models
    sh2
    sh2 2024/04/24
    E5試してみる
  • SAPは何故使いにくいのに、世界中で愛されているのか|ヒーホーくん

    定期的に見かけるSAPを入れても碌なことがないみたいなやつ。現場の人や中間管理職の感想としては全く正しいが、当にERPがゴミならば(主にグローバル大企業で)これだけ普及しているわけもないわけで、なにかしら使う側に問題があるのかもしれません。 マジレスするとSAPというかERPは給料の高い人の生産性を上げるもので、給料の安い人の使い勝手とか優先度低いし、末端にたくさんのデータの入力を要求するから。別になんの矛盾もない。 https://t.co/F2J5TdeWXw — (っ╹◡╹c) (@Heehoo_kun) March 21, 2024 私が新卒入社した会社でも当時のメインフレームをSAPに置き換えるみたいな話があって、コスト削減で大変な工場でそんなものは入れられないみたいな議論があったのは覚えています。その時のラインマネージャーの一人が、「ERPは給料が安い人を大量に使って給料が高

    SAPは何故使いにくいのに、世界中で愛されているのか|ヒーホーくん
    sh2
    sh2 2024/04/23
    勉強になる
  • 自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ

    最近オープンになる大規模言語モデル(LLM)が、軒並みGPT-4レベルの性能となっています Huggngfaceで無料でダウンロードできるのですが、問題は必要VRAM容量です 話題の、Command-r-Plusは、日語性能について評価が高く、一部の性能はGPT-4並みと言われますが、さすがに大型で104Bパラメータもあるため、4bitに量子化しても60GB程度のVRAMが必要となります。 コンシューマークラスのGPUの最高峰、RTX4090は、VRAM24GBのため、command-r-plusをすべてGPUに載せて推論しようと考えると、3台のマルチGPUデスクトップが必要です しかし、RTX4090は450W消費のGPUのため冷却機構が大きく、1デスクトップに3台収めるのは至難の業となります。 先日、水冷ラジエーター付きRTX4090で、マルチGPUデスクトップを作成しました。 水冷

    自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ
    sh2
    sh2 2024/04/22
    夢がある
  • もし「GitHub Copilot」を現役弁護士が使ったら? - MNTSQ Techブログ

    こんにちは。GitHub Copilotを先日初めて触って、感銘を受けたMNTSQ代表の板谷です。MNTSQの代表をしておりますが、現役の弁護士でもあります。 なぜ私が、GitHub Copilotに感銘を受けたかというと、「プログラミングの LLM による進化」は、契約という言語をコーディングするためにもドンピシャで使えそうだと感じたからです。 例えば、GitHub Copilot では、自分の過去のコードを参照して、最適なコードをサジェストしてくれます。 これは、契約に関わるすべてのビジネスパーソンが求めていたものです!契約の 99.9%が過去のコードの使い回しであるにもかかわらず、毎回ゼロからコーディングするのが当に苦痛だからです。ちなみに、前回契約と理由なく diff があると取引先に怒られます。笑 しかし、GitHub Copilot 的なものがプログラミング言語だけでなく契約

    もし「GitHub Copilot」を現役弁護士が使ったら? - MNTSQ Techブログ
    sh2
    sh2 2024/04/19
    GitHub CopilotのようなUXを実現する独自の仕組みを作ったってことだよね
  • 生成AIによるプロダクトと生産性向上の舞台裏@2024.04.16

    2024.04.16「先達エンジニアに学ぶ 思考の現在地 Online Conference」での登壇スライドです event link: https://findy.connpass.com/event/313119/ 生成AIを使ってプロダクト作りをしていたり、社内の生産性向上をチャレンジしてる方に少しでも参考になれば幸いです。

    生成AIによるプロダクトと生産性向上の舞台裏@2024.04.16
    sh2
    sh2 2024/04/17
    P33「10 pods NVIDIA Tesla T4で14x cheaper than GPT-3.5 Turbo」へー
  • RTX3060x2のGPUで激安ローカルLLMマシンを構築。 by Yuichiro Minato | blueqat

    こんにちは、安くLLMを構築したいですね。おすすめ構成をお知らせします。 LLMは大規模言語モデルのことで、AIChatGPTみたいに文章を作ってくれます。無料で使えますが、業務で使おうとすると結構難点があるし、データの漏洩とか含めて困りますね。手元のローカルでLLMを作る際のおすすめ構成をお知らせします。 まず、LLMを作るには、マザーボード、CPU、メモリ、SSD、電...

    RTX3060x2のGPUで激安ローカルLLMマシンを構築。 by Yuichiro Minato | blueqat
    sh2
    sh2 2024/04/17
    4060 Ti 16GB×3枚とかできないかなあ
  • langchain/cookbook at master · langchain-ai/langchain

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    langchain/cookbook at master · langchain-ai/langchain
    sh2
    sh2 2024/04/17
    アプリケーションのひな型