タグ

あとで読むに関するbeeworksのブックマーク (1,025)

  • Google製のクラウド開発環境 Project IDX が良い感じだった

    はじめに みなさんは普段、クラウド開発環境[1](ブラウザベースの統合開発環境)を利用して開発していますか。私はまだ積極的に使っておらず VS Code や Cursor などローカルで済ませていますが、GitHub開発チームはCodespacesを使って商用開発している など、クラウド IDE を使った格開発も一般的になりつつある印象です。 記事のトピックである Project IDX(以下、IDX)は、2023年8月上旬に発表された Google が開発する実験プロジェクトで、マルチプラットフォーム開発のクラウド開発環境を提供します。 クラウド開発環境と言えば GitHub Codespaces や AWS Cloud9 などが有名ですが、記事で紹介する IDXAndroid エミュレータと iOS シミュレータが標準で備わっており、モバイル開発にも長けている点が嬉しいポイ

    Google製のクラウド開発環境 Project IDX が良い感じだった
  • 30分で出来る、JavaScript (Electron) でデスクトップアプリを作って配布するまで - Qiita

    概要 Electronとは、JavaScriptデスクトップアプリケーションが作成できるツールです。 MITライセンスなので無料で使える上に商用利用も可能です。 最近ではAtomやSlackのアプリもElectronで作られたとのこと。 今かなりノっているツールの1つです。 以下、簡単な特徴。 Node.js + HTML + CSS という、WEBの技術でアプリが作れる。 Chromiumブラウザ(Chromeのオープンソース版)を内蔵しているので、普段の書き味と変わらない これ1つで Windows, Mac, Linux 向けのアプリが作れる 超簡単 ここではElectronのインストールからアプリの配布までを紹介します。 以下、「Hello World」を出すだけのアプリですが、ゼロからはじめて30分でここまで出来ます。 インストール まずは必要なものをインストール。 nodeの

    30分で出来る、JavaScript (Electron) でデスクトップアプリを作って配布するまで - Qiita
  • 人類は気づいていた。この勉強の仕方が1番早いということを。 - Qiita

    はじめに 多くの勉強方法を試してきて、最後にたどり着いたのが問題駆動プログラミング法という学習方法でした 世の中では独学大全というがベストセラーになるなど、学習内容ではなく、「勉強方法」を学びたいという人はとても増えています。 せっかく勉強するなら効率よくやりたいと考えるのは当たり前のことです。 成果を出したいならその分野の努力の仕方を学ぶのが1番効率的で賢い それは誰もが理解していることだと思います。 「では、プログラミングの勉強の仕方を学んだことはありますか?」 おそらく多くの人が自分なりに勉強をしていると思います。 なぜかというと勉強方法などの経験的な記事を書こうとすると「考え」を書くことになるため記事を書くのがとても大変でなかなか世の中には「これをやれば確実」という勉強方法を紹介している記事は少ないです。 これはエンジニアが基的に「技術」を発信することが多くなるので仕方がないと

    人類は気づいていた。この勉強の仕方が1番早いということを。 - Qiita
  • Ollamaを使ってLlama3をカスタマイズしてみた(初心者向け解説)|AI-Bridge Lab こば

    こんにちは、AIBridge Labのこばです🦙 無料で使えるオープンソースの最強LLM「Llama3」について、前回の記事ではその概要についてお伝えしました。 今回は、実践編ということでOllamaを使ってLlama3をカスタマイズする方法を初心者向けに解説します! 一緒に、自分だけのAIモデルを作ってみましょう。 もし途中で上手くいかない時やエラーが出てしまう場合は、ChatGPTやClaudeなどのLLMに補助してもらうとスピーディですが、コメントを頂ければできるだけ早めに返答したいと思います。 1.この記事で行っていること主に以下の3つの工程について説明しています。 ローカル環境のLlama3 8Bモデルを使う🦙 埋め込み(Embeddings)を使って知識追加📚 モデルのカスタマイズ🔧 2.今回のゴールちょっとだけ複雑なタスクをさせられるちょうどいい事例として 「テーマに

    Ollamaを使ってLlama3をカスタマイズしてみた(初心者向け解説)|AI-Bridge Lab こば
  • VS CodeでJupyterしてみよう

    Jupyterは、オープンソースで開発が進められているプロジェクト(Project Jupyter)です。Pythonなどのプログラミング言語で記述された実行可能なコードと、Markdownで記述されたコードに関連ドキュメントを、「ノートブック」と呼ばれる単一のファイルにまとめることが可能な環境の構築を目指しています。 このプロジェクトの代表的な成果物が、コードとドキュメントをひとまとめに扱えるノートブックをWebブラウザ上で実現するWebアプリ「Jupyter Notebook」や「JupyterLab」です。Visual Studio Code(以下、VS Code)にPython拡張機能とJupyter拡張機能をインストールすることで、このノートブック環境をVS Code内で実現できます。今回はその基を見ていくことにしましょう。 必要なもの 以前のバージョンのVS CodeではPy

    VS CodeでJupyterしてみよう
  • 【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.) - Qiita

    【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.)OpenAIChatGPTlangchainGPT-4LlamaIndex ChatGPT に代表される今日の AI ブームを牽引しているのは 大規模言語モデル(Large-scale Language Model, LLM) と言っても過言ではないでしょう。LLM とは大量のテキストデータを使ってトレーニングされた自然言語処理のモデルで、代表的なものに、GPT(OpenAI)、Llama(Meta)、PaLM(Google)があります。我々開発者は、事前学習されたこれらのモデルを使って簡単にアプリケーションを作ることができます。 LLM が遂行可能な言語的タスク LLM を使って行える言語的タスクには次のような種類があります: Classification: 感情やポジ

    【完全保存版】GPT を特定の目的に特化させて扱う (Fine-tuning, Prompt, Index, etc.) - Qiita
  • AIレビューについて(導入方法、使用感、料金) - Qiita

    概要 弊社(株式会社コムニコ)でレビュー効率を上げるために、AIレビューの導入を検討しました! 今回ご紹介するのはPR-Agentというライブラリで、無料範囲で十分に成果を上げてくれます。 設定方法、料金、実践的な使用感を具体的に解説しているので、さらっと読んでみてください! Github ActionとBitBucket Pipelineで設定するYAMLテンプレートもご用意しております。 読了時間目安は約5 ~ 10分です。 目次 (3行で)弊社について PR-Agentでできること 各機能のレビュー 前提 /describeについて /reviewについて /improveについて /askについて OpenAIにかかったお値段 導入方法 設定テンプレート: Github Action 設定テンプレート: BitBucket Pipeline つまずいたポイント 大きいPRに対応する

    AIレビューについて(導入方法、使用感、料金) - Qiita
  • 『Winny』の金子勇さんの失われたED法を求めて - Qiita

    普段は「通知が迷惑かなー」と思ってブックマークしていただいている方に通知せず記事を編集しているのですが、この記事をブクマしていただいている方は続きが気になっている方だと思いますので通知させていただきます。 結論から言うと、この記事を読んだ @pocokhc (ちぃがぅ)さんという方が金子勇さんが書いたED法のサンプルプログラムを見つけてくださいました。 ちぃがぅさんの記事はこちら 自分で解明したかったという気持ちも無いことは無いですが、バズった時点で誰かが実装してくれそうな気はしていました。新卒からIT業界に入って4年目が始まったところですが、業務以外で初めて業界にコントリビュートできた気がして嬉しいです! 追記ついでに、謝罪します。初回公開時に記事タイトル含め文中で何か所か「Winney」と書いてしまっていた箇所がありました。失礼いたしました。誤字修正してあります。指摘してくださった何

    『Winny』の金子勇さんの失われたED法を求めて - Qiita
  • AI/ML向け汎用GPUサーバの中身をご紹介 | IIJ Engineers Blog

    インフラ系エンジニアをしているt-moriyamaです。ハードウェアからミドル、サーバやネットワークなど手広く守備範囲にしています。最近の流行りは仮想ルータと仮想スイッチでネットワーク構築です。 はじめに はじめまして、クラウド部でインフラエンジニアをしているt-moriyamaです。 最近AIの話題も世間でずいぶんと浸透したようでいろいろとビジネス方面での活用方法が出てきていますが、AI/MLの検証利用目的でDell Technologies社製のGPU搭載サーバ、PowerEdge R750xaを入手しました。今後何回かに分けてGPUサーバやAI/MLに関する情報をお伝えしていきたいと思いますが、まず今回はせっかくなのであまりお目にかかる事が少ないであろう機器の中身を紹介させていただきます。 外観 当該機器は弊社DCの検証ルームに設置しました。 (PowerEdge R750xaを開

    AI/ML向け汎用GPUサーバの中身をご紹介 | IIJ Engineers Blog
  • 古い写真・低画質アニメ画像・イラストなどを簡単に高画質化できる「Winxvideo AI」でいろんな画像をハッキリクッキリアップグレードさせてみたレビュー

    最先端のAI技術を利用して自動で動画を高画質化・フレーム補間・手ぶれ補正することができるソフトウェア「Winxvideo AI」は、動画だけでなく画像の高画質化も可能です。低画質な画像を鮮明に補正することができるということで、Winxvideo AIを使っていろんな画像を高画質化しまくってみました。 【無料】Winxvideo AI - 最高の動画、写真高画質化・修復&動画変換ソフト|無料体験 https://www.winxdvd.com/winxvideo-ai-ja/index.htm Winxvideo AIをインストールするには、上記の公式サイトにアクセスしてトップにある「無料ダウンロード」ボタンをクリック。 ダウンロードしたインストーラーをダブルクリックで起動。 「インストール」をクリック。 数秒でインストールが完了するので、「今すぐ起動」をクリック。 「後で通知する」をクリッ

    古い写真・低画質アニメ画像・イラストなどを簡単に高画質化できる「Winxvideo AI」でいろんな画像をハッキリクッキリアップグレードさせてみたレビュー
  • 生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた

    生成AIGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた(2/3 ページ) ──bitというのはどういう意味ですか? 椎橋:bitというのは、ある数字を2進法で表したときの桁数のことです。 1bitだと、0か1の2値しか表現できません。2bitになると、00、01、10、11の4通りを表現できるようになります。3bitだと、2通りが3回重なるので、2の3乗で8通りになるんです。 1bit LLMでは、桁をとことん丸めて、-1か1の2値にしてしまおうという発想なんです。具体的には、ニューラルネットの中の重みパラメータの数値を、大胆に-1か1にしてします。これをBitNetと呼んでいます。 この仕組みをLLMに適用してみようというのが1bit LLMの基的なアイデアです。この基アイデアに対して今回の論文では1つ工夫があって、-1か1だけでなく、0も加えて、0

    生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた
  • ChatGPTなど数々の高性能AIを生み出した仕組み「Attention」についての丁寧な解説ムービーが公開される

    さまざまな数学的トピックをムービー形式で解説するサイト「3Blue1Brown」において、ChatGPTに代表されるAIを形作っている「Transformer」構造の心臓部「Attention(アテンション)」についての解説が行われています。 3Blue1Brown - Visualizing Attention, a Transformer's Heart | Chapter 6, Deep Learning https://www.3blue1brown.com/lessons/attention AIの中身と言える大規模言語モデルのベースとなる仕事は「文章を読んで次に続く単語を予測する」というものです。 文章は「トークン」という単位に分解され、大規模言語モデルではこのトークン単位で処理を行います。実際には単語ごとに1トークンという訳ではありませんが、3Blue1Brownは単純化して

    ChatGPTなど数々の高性能AIを生み出した仕組み「Attention」についての丁寧な解説ムービーが公開される
  • 【RSpec】フレーキーなテスト(たまに落ちるテスト)の直し方 - Qiita

    はじめに 自動テストを整備しておくと大量のテストを自動実行してくれるので大変便利です。 ですが、テストコードが増えてくると「パスするはずなのに、なぜかたまに失敗する」というテストが出てきます。 このような不安定なテストを「フレーキー(flaky)なテスト」と呼びます。 フレーキーなテストの問題点 フレーキーなテストは「たまに失敗するだけ」なので、何度かやり直せばパスします。 なので、GitHub ActionsのようなCIツール上でテストが落ちても、「あ、また落ちた。再実行したら直るかな(ポチッ)」という安易な解決策に走りがちです。 しかし、フレーキーなテストを放置するのはよくありません。 理由は以下の通りです。 当はバグのせいで失敗しているのに「きっとフレーキーなテストだからに違いない」と思い込んで、そのままリリースしてしまうから(いわゆる「狼少年」状態) 実務レベルの巨大なテストコー

    【RSpec】フレーキーなテスト(たまに落ちるテスト)の直し方 - Qiita
  • Wallaby.jsを使ってフロントエンド開発のテストを効率化しよう - Findy Tech Blog

    Findy Team+でフロントエンドエンジニアをしている 川村(@peijun333)です。 Findy では、フロントエンドのコード品質と安定性を確保するために Jest などのテストフレームワークを積極的に活用しています。通常、Jest は CLI から実行してテスト結果をコンソールで確認しますが、コマンドを用意する手間や、テスト経過のデバッグのために都度 console.log などでその内容を確認しなければならずとても不便です。 そこで、今回はテストの自動化とリアルタイムなフィードバックを提供する JavaScript の統合テストツールである Wallaby.js を紹介します。Wallaby.js を導入することで、開発効率の向上が期待できます。 Wallaby.js とは? 前提条件 VS Code でテストの修正 Wallaby.js はリファクタリングに強い スナップシ

    Wallaby.jsを使ってフロントエンド開発のテストを効率化しよう - Findy Tech Blog
  • 【Playwright】v1.4系の新機能まとめ - RAKUS Developers Blog | ラクス エンジニアブログ

    こんにちは、フロントエンド開発課所属のkoki_matsuraです! 記事では、E2EテストライブラリであるPlaywrightのv1.40 ~ 最新版v1.43で追加された機能の中から僕の独断と偏見でいくつかを紹介したいと思います。 では早速、紹介していきます! 以下は目次です。 v1.40の新機能 Test Generatorにアサーションコード生成機能 toBeVisibleアサーション toContainTextアサーション toHaveValueアサーション v1.41の新機能 screenshot関数のstyleオプション toHaveScreenshot関数のstylePathオプション v1.42の新機能 addLocatorHandler関数 タグの追加 v1.43の新機能 LocatorとFrameLocatorの相互変換 clearCookiesのフィルター機能 ま

    【Playwright】v1.4系の新機能まとめ - RAKUS Developers Blog | ラクス エンジニアブログ
  • 2024年Gitワークフロー再考 | フューチャー技術ブログ

    春の入門祭り2024の2記事目です。 Gitは、出自としては1週間で作られたLinuxカーネルのための分散バージョン管理システムでした。当時のワークフローに合わせてパッチをテキスト化してメールに添付できるような機能だったりが備わっています。 一方で、現代のGitは、デファクトスタンダードなバージョン管理システムになりLinuxカーネル以外のアプリケーション開発で利用されています。分散バージョン管理ではあるものの、サーバー・クライアント型の使われ方をしていて、GitHubGitLabを核にして、ローカルで作ったブランチをpushして、Pull Requestの形にして管理しています。少なくとも周りで見る限りでは、それ以外の使われ方の方が少なくなってきてます。そんなこんなで求められている使われ方が変わってきていて、それに合わせた機能がぼちぼち増えています。それを活用することで、ウェブ画面上で

  • 日本語LLM 9種を量子化して回答内容を比較調査してみた - Qiita

    TL;DR 量子化しても成績が下がりにくいモデルと、大きく下がるモデルがある 一部のモデルは量子化すると回答が極端に短くなる 量子化によって回答が短くなる度合いは、量子化前モデルの回答の長さと相関がある可能性がある はじめに 皆さんは量子化したLLMを使っていますか? 深層学習における量子化(quantization) とは、モデルのパラメータを少ないビット数で表現することです。 通常のモデルは float32 などの高精度なデータ型を使ってパラメータを表現しますが、この精度を float16 や int8 に下げることを量子化といいます。 量子化による最大のメリットは、モデルのメモリ使用量を削減できることです。メモリの大きなモデルを動かすためには、大容量のメモリを搭載したGPUが必要ですが、量子化によってモデルのメモリ使用量を削減することで、より多くのGPUでモデルを動かすことができます

    日本語LLM 9種を量子化して回答内容を比較調査してみた - Qiita
  • 二流のリーダーは「背中を見て覚えろ」と言い、一流は「手取り足取り」指導をする。では超一流は?

    あんどう・こうだい/1979年、大阪府生まれ。早稲田大学卒業後、株式会社NTTドコモを経て、ジェイコムホールディングス(現:ライク)のジェイコムで取締役営業副部長等を歴任。2013年、「識学」という考え方に出合い独立。識学講師として、数々の企業の業績アップに貢献。2015年、識学を1日でも早く社会に広めるために、識学を設立。人と会社を成長させるマネジメント方法として、口コミで広がる。2019年、創業からわずか3年11カ月でマザーズ上場を果たす。2022年3月現在で、約2700社以上の導入実績があり、注目を集めている。最新刊『数値化の鬼』(ダイヤモンド社)の他に、29万部を突破したベストセラー『リーダーの仮面』(ダイヤモンド社)などがある。 リーダーの仮面 全国で1900社が導入し、「いま最も人を成長させる組織論」と話題のマネジメント法の「識学(しきがく)」。書では、その識学のメソッドを

    二流のリーダーは「背中を見て覚えろ」と言い、一流は「手取り足取り」指導をする。では超一流は?
  • ジークス、GitLabの全531機能を日本語で解説した「すべてのGitLab機能リスト」逆引き辞書を公開

    CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

    ジークス、GitLabの全531機能を日本語で解説した「すべてのGitLab機能リスト」逆引き辞書を公開
  • 【実録】社内ChatGPT構築方法の詳細、失敗した点と盲点すぎた「成果の出し方」(ビジネス+IT) - Yahoo!ニュース