タグ

sh2のブックマーク (2,754)

  • https://hillbig.github.io/AIEXPO2024spring_okanohara.pdf

    sh2
    sh2 2024/05/27
    2024年5月の状況
  • エンジニアとしてのキャリアを支える自宅サーバー

    ツナカン(TUNA-JP Conference) #12 で発表した資料です

    エンジニアとしてのキャリアを支える自宅サーバー
    sh2
    sh2 2024/05/27
    自宅サーバーを中心にして、さくらのVPS(ドメイン管理、メールサーバー)とAzure(新しい技術諸々)を組み合わせている。証明書の維持とかメールサーバーのSPF/DKIM/DMARC対応とか、自分で運用するからこそ学べることが多い
  • Zodスキーマでプロンプト生成を行い構造化データを自由自在に扱えて、LLMプロダクト開発が圧倒的に効率化した話 - Algomatic Tech Blog

    最近はAIエンジニアを名乗ってるerukitiです。フロントエンドもバックエンドも、LLMを触るあれこれもやってるので、「AIエンジニア」くらいを名乗るとちょうどよさそうだなと思ってます。いずれLLM自体の開発なんかもやってるかもしれません。 LLMプロダクトを開発していると、構造化データを作りたいのに、Anthropic ClaudeのAPIにはJSONモードが無いことや、なんならJSONモードやfunction callingを使っても、データが正しい形式に従ってることは保証しがたい、みたいな自体に遭遇することがあります。 JSONが出力できたとしても、構造化データをうまく吐き出させるのは難しいものです。文字列を出力させたいけど、複数あるときは、配列なのか、それともカンマ区切りなのか?項目がオプショナルの場合はどうするか?項目が存在しない、空文字や 0 や undefined や nu

    Zodスキーマでプロンプト生成を行い構造化データを自由自在に扱えて、LLMプロダクト開発が圧倒的に効率化した話 - Algomatic Tech Blog
    sh2
    sh2 2024/05/23
    JSONモードに追加の工夫で処理内容を固定化する試み
  • Grit: the power of passion and perseverance | Angela Lee Duckworth

    Visit http://TED.com to get our entire library of TED Talks, transcripts, translations, personalized talk recommendations and more. Leaving a high-flying job in consulting, Angela Lee Duckworth took a job teaching math to seventh graders in a New York public school. She quickly realized that IQ wasn't the only thing separating the successful students from those who struggled. Here, she explains h

    Grit: the power of passion and perseverance | Angela Lee Duckworth
    sh2
    sh2 2024/05/21
    多数の言語で字幕がついているのでテスト用に
  • 最近ローカルLLMがアツいらしい

    最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAI命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

    sh2
    sh2 2024/05/20
    最近のLLM界隈の動きがまとまっている
  • AIラジオ『zenncast』の技術構成(プロンプトつき)

    先日、個人開発していたzenncastというWebサービスをリリースしました。 Zennでトレンドになっている記事を、毎日AIが10分のラジオにして届けてくれるというサービスです。 ありがたいことに公開後はたくさんの方に試してもらえ、技術的な質問も多数いただきました。 このZennではzenncastの技術構成や仕組みを紹介します(プロンプトつき)。 作ったもの まずはエピソードを一つ選んで1分くらい聴いてみてください! AIラジオの雰囲気が掴めると思います。 主な機能・特徴 毎朝10分のラジオを生成 Zennでトレンドになっている記事を要約して紹介 お便りを投稿すると、翌日のエピソードでAIパーソナリティが拾ってコメントしてくれる BGMをつけて爽やかな聴き心地 これらのステップは人の手を介さずすべて自動化されています。 Spotifyなどの各種プラットフォームへの配信はSpotify

    AIラジオ『zenncast』の技術構成(プロンプトつき)
    sh2
    sh2 2024/05/17
    原稿作成用のプロンプトが肝なのかなあ。今ある技術を丁寧にチョイスすればこんなものが作れるのかと感心している
  • Linuxでのプロセス置換 - Qiita

    はじめに 導入 Linuxで使うbash等のシェルには、様々な○○置換という機能がありますが、その中でも「プロセス置換」( <(コマンド) や >(コマンド) ) というのはなかなかイメージし辛いのではないかと思います。 ※特にコマンド置換 ( $(コマンド)や`コマンド` ) と名前が紛らわしいというのもあります。 これはパイプと機能的にも仕組み的にも近いものですので、この機会にパイプとの関連性も含め、仕組みを紹介したいと思います。 環境 bash,zsh共にプロセス置換の機能を持っていますが、以下ではbashを前提として仕組みを説明します。 なお、各動作確認は x86_64 WSL1(Win10)/Ubuntu18.04.2 LTS, bash4.4.19(1) で行っています。 プロセス置換の概要 利用目的 bash manページのプロセス置換の項にも説明はあるのですが、なかなかそれ

    Linuxでのプロセス置換 - Qiita
    sh2
    sh2 2024/05/12
    「while read VAR; do シェル変数設定; done < <( A ) のプロセス置換に書き直してパイプラインを解消することで、大本のシェルに反映させられる形にできます」
  • 【特集】 電源の仕組みはこうだ!理解できれば良し悪しも分かる。これで目指せ電源マイスター

    【特集】 電源の仕組みはこうだ!理解できれば良し悪しも分かる。これで目指せ電源マイスター
    sh2
    sh2 2024/05/10
    勉強になる
  • zenncast - 技術トレンドをAIがラジオに変換

    Zennのトレンド記事をまとめてAIがラジオをつくります。毎朝7時に更新。 お便りも募集中。送っていただいたお便りはAIパーソナリティが読み上げます。

    zenncast - 技術トレンドをAIがラジオに変換
    sh2
    sh2 2024/05/09
    完成度が高い
  • Continue + Ollama でタブ補完(β)を機能させるまで

    ローカルLLMでGitHub Copilotのような開発ができるようにしました。 Continue と Ollama を用いましたが、タブ補完がβ版ということもあってか設定で躓いたので、記事にしました。 TL;DR Ollamaを起動し、API経由のアクセスが有効か確かめます config.jsonの設定後、VSCodeを再起動します(2024-05-02時点では必要) Continueのタブ補完実行時、VSCodeのOutputタブとOllamaのserver.logでデバッグを行います。 技術選定 GitHub Copilotに代わるアシスタントとしては、Cursor, Continue, Tabby を比較しました。 今回は完全ローカルで動作するContinueを選択しました。 Cursorは2024‐05‐02時点ではCursorのサーバーを経由してLLMにアクセスしているため、n

    Continue + Ollama でタブ補完(β)を機能させるまで
    sh2
    sh2 2024/05/09
    Windowsでの構築事例
  • テキスト生成APIサーバのスループットを高めるbatching algorithms

    はじめに テキスト生成モデルをAPIサーバでホストする需要が増えてきている昨今ですが1サーバでできるだけ多くのリクエストをさばくためにはどうすればよいでしょうか?もちろん高速なツールを使うことも重要ですが、それだけでは限界があります。前回の記事ではいくつかのツールを比較しましたが、どのツールでもバッチサイズを上げることで単位時間あたりの処理能力を高めることができるということがわかりました。つまりAPIサーバ側でバッチサイズを大きくする工夫をすることでより多くのリクエストをさばくことが可能になります。 今回の記事ではText Generation InferenceやvLLMなどが採用して注目を集めているContinuous batchingと呼ばれる手法について紹介します。 名称や仕組みなどについてはこれらの解説を参考にしています。 予備知識 Continuous batchingの説明に

    テキスト生成APIサーバのスループットを高めるbatching algorithms
    sh2
    sh2 2024/05/08
    社内用の推論サーバーを作りたくて、この記事と前後の記事を確認する
  • [Bug]: The Write-ahead Log (embeddings_queue) doesn't get cleaned up · Issue #1755 · chroma-core/chroma

    sh2
    sh2 2024/05/07
    chroma内部のSQLite3においてembeddings_queueテーブルのデータがずっと増え続けてしまう問題
  • GPUなサービスをそこそこな費用で運営する | Kai INUI

    A new tool that blends your everyday work apps into one. It's the all-in-one workspace for you and your team

    GPUなサービスをそこそこな費用で運営する | Kai INUI
    sh2
    sh2 2024/05/06
    Cloudflare Tunnel/tailscale/Kamalを使った今どきの自宅サーバー運用、RTX A4000はAmpere(3090)世代/16GB/1スロット/140Wで機械学習用GPUとしてコスパがよい
  • Windowsでプロセッサの周波数を固定にする - Qiita

    はじめに プロセッサの周波数は処理負荷や電源状態に応じて動的に変化します。 ここではプロセッサの周波数を固定にする方法を紹介します。 固定できる周波数はProcessor Base FrequencyとCore Speedです。 プロセッサとOSは次の通りです。 Intel Core i5-5200U Processor Processor Base Frequency = 2200 MHz Core Speed = 800 MHz Windows 10 Home 10.0.18362 "プロセッサの最大周波数"を表示する プロセッサの周波数を固定にするには"プロセッサの最大周波数"の設定が必要です。 しかし初期設定では表示されていない可能性があります。表示する手順を説明します。 コマンドプロンプトを起動します。以下を入力します。 powercfg -attributes SUB_PROC

    Windowsでプロセッサの周波数を固定にする - Qiita
    sh2
    sh2 2024/05/04
    PCのファンがうるさいときにこれで調節する
  • 【永久保存版】複数のベクトル群同士のコサイン類似度を一気に算出する方法 - Qiita

    はじめに この記事では,コサイン類似度の概要から,複数のベクトル群同士のコサイン類似度を一気に算出する方法をpythonコードを用いて解説します. コサイン類似度とは コサイン類似度を一言で表すと「2つのベクトルがどの程度似ているかを表す尺度」です.この尺度は,2つのベクトルの内積を2つのベクトルの大きさ(L2ノルム)で割ることによって計算できます. コサイン類似度は,-1~1の範囲に正規化され,その値によって以下のように解釈が異なります. 1なら「2つのベクトルの成す角度が0度 → 同じ向きのベクトル → 完全に似ている」 0なら「2つのベクトルの成す角度が90度 → 独立・直行したベクトル → 似ている/似ていないのどちらにも無関係」 -1なら「2つのベクトルの成す角度が180度 → 反対向きのベクトル → 完全に似ていない」 2つのベクトルの大きさにかかわらず,2つのベクトルの向きが

    【永久保存版】複数のベクトル群同士のコサイン類似度を一気に算出する方法 - Qiita
    sh2
    sh2 2024/05/01
    分かりやすい
  • YouTubeでみれるライブカメラ映像まとめ【作業用BGMにも】 | オモコロブロス!

    YouTubeでみれる日海外のライブカメラ映像をまとめました。動物の癒し映像から、宇宙の絶景まで盛りだくさん!【作業用BGMにも】 こんにちは、ライターの松岡です。 みなさんは自宅のリンビングでくつろいでいる時、どんな映像をテレビで見ていますか? 僕はケーブルテレビ「イッツコムチャンネル」で放送している、二子玉川の河川敷などを映すライブカメラの映像をよく見ています。 自宅にいながらリアルタイムで様々な場所の景色や様子を見るのは、地味に楽しいですよね。 今回はYouTubeでみれる、オススメのライブカメラ映像を紹介します! 鳥羽水族館 ラッコ水槽ライブカメラ 2頭のラッコが水槽で気持ちよさそうに泳いでいたり、のんびりしている様子が癒されます。 24時間配信をしているので、隙間時間にみて楽しむこともできますよ! 同じチャンネルで定期的に「ラッコのお事タイム」をライブ配信しているので、そち

    YouTubeでみれるライブカメラ映像まとめ【作業用BGMにも】 | オモコロブロス!
    sh2
    sh2 2024/04/30
    ニュージーランド自然保護局のアホウドリ中継をよく観ている https://www.youtube.com/watch?v=fDhIv9iBzWk
  • Hugging Face Courseで学ぶ自然言語処理とTransformer 【part1】

    はじめに この記事はHugging Face CourseのIntroduction~Transformers, what can they do?あたりの内容を自身の見解なども合わせてまとめたものになります。 Hugging Faceって? Hugging Faceとは主に自然言語処理のモデル開発やそれらのオープンソース提供を行っているアメリカの会社で、機械が人間と同じようにテキストを理解する技術開発に貢献することを目標としているそうです。私もこういう理念には強く共感できます。 Transformerを軸においた技術開発がメインに行われているようです。 ロゴがなんかかわいい。 Transformerについて Transformerとは系列データを逐次処理で学習するのではなく、まとめて学習させられるように設計されたモデルで、それによってGPUによる並列処理の恩恵をより受けられるようになり、

    Hugging Face Courseで学ぶ自然言語処理とTransformer 【part1】
    sh2
    sh2 2024/04/25
    あとでなぞってみる
  • LEIA: 言語間転移学習でLLMを賢くする新しい方法

    Studio Ousiaと理化学研究所に所属している山田育矢です。 この記事では、大規模言語モデル(LLM)の性能を向上させる新しい方法であるLEIA(Lightweight Entity-based Inter-language Adaptation)を紹介します。 LLMは言語によって性能に顕著な差があり、訓練に使われるテキストが最も多い英語において特に性能が高い傾向があることが知られています。LEIAは、LLMが蓄えている英語の知識を他の言語から使えるようにする訓練を施すことで、英語以外の言語でのLLMの性能を向上させる新しい手法です。 この度、英語・日語の2言語LLMであるSwallowの7Bと13Bのモデルに対してLEIAによる訓練を施して性能向上を行ったモデルを公開します。 ライセンスは、Swallowと同様のLlama 2 Community Licenseです。これらのモ

    LEIA: 言語間転移学習でLLMを賢くする新しい方法
    sh2
    sh2 2024/04/25
    こうした手法でLlama 3が日本語上手になるとうれしい
  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
    sh2
    sh2 2024/04/24
    2024年はMac Studio有力、会社でもL40Sの予算を少し削ってMac Studioを増やそうと画策している。一方2025年になればAMD Zen 5 APUのStrix HaloがLPDDR5X 8533MT/s 8 Channelで546GB/sとの噂、Ryzen AIも搭載しているので対抗馬になるかなと思っている
  • オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models

    イノベーションセンター テクノロジー部門 Generative AI PJ の内部勉強会で発表した資料です。Retrieval-Augmented Generation (RAG) において重要な役割を果たす埋め込みモデル(特に日語に特化したもの)について整理しました。

    オープンな日本語埋め込みモデルの選択肢 / Exploring Publicly Available Japanese Embedding Models
    sh2
    sh2 2024/04/24
    E5試してみる