記事へのコメント8

    • 注目コメント
    • 新着コメント
    RySa
    RySa GPU無しのMacbook Airでも動作確認出来た。因みにGemma:2bで受け答えは英語。今晩の料理のおすすめを教えてくれて最後に「ナプキン用意しますね!」と言われた。君、実世界にナプキンどうやって持ってくるん?

    2024/04/22 リンク

    その他
    misshiki
    misshiki “Ollama という初心者の方でも比較的失敗しにくい LLM 推論アプリケーションを用いて、ローカル環境で LLM を実行するまでを取り扱います。”

    2024/04/22 リンク

    その他
    deejayroka
    deejayroka “標準で量子化されたモデルを利用することができます。便利ですね。一方で、出たばかりのモデルや自前のモデル、たとえば日本語モデルに対応していないことも多いです。そういった時に自分で量子化し、Ollama で使え

    2024/04/22 リンク

    その他
    puhu208n
    puhu208n 出たての頃のローカルLLM実行環境は日本語特化LLMぶち込むと落ちたりしてたなぁ

    2024/04/21 リンク

    その他
    alex0715
    alex0715 “Ollama”

    2024/04/21 リンク

    その他
    irimo
    irimo good

    2024/04/21 リンク

    その他
    fai_fx
    fai_fx "参考値として 32GB であれば 32GB までは動く感触です。"...

    2024/04/21 リンク

    その他
    buhoho
    buhoho ollamaは用意されてないモデル使おうとしたら自分でModelfile作る必要ありinstraction シーケンスの設定間違うとまともに動かないし辛かった。koboldcppは何も考えないで拾ってきたggufを読み込むだけでWebUIでチャットできる

    2024/04/21 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    いちばんやさしいローカル LLM|ぬこぬこ

    概要ローカル LLM 初めましての方でも動かせるチュートリアル 最近の公開されている大規模言語モデルの...

    ブックマークしたユーザー

    • J1382024/05/08 J138
    • dowhile2024/05/07 dowhile
    • secondlife2024/05/07 secondlife
    • kikiki-kiki2024/05/02 kikiki-kiki
    • Insite2024/04/29 Insite
    • koga10202024/04/28 koga1020
    • izm_112024/04/28 izm_11
    • hush_in2024/04/26 hush_in
    • ryshinoz2024/04/25 ryshinoz
    • ZAORIKU2024/04/24 ZAORIKU
    • t_trad2024/04/23 t_trad
    • hm_hs2024/04/23 hm_hs
    • VTak2024/04/22 VTak
    • knzw252024/04/22 knzw25
    • RySa2024/04/22 RySa
    • xmobile2024/04/22 xmobile
    • takahiron342024/04/22 takahiron34
    • naganom2024/04/22 naganom
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事