kaoh_siungのブックマーク (2,757)

  • 音楽系API(主に音楽配信サービス)まとめ - Qiita

    DIGLEを開発している傍らで実際に使用しているAPIや今後使用したいAPIに関して情報をまとめておきたいと思いメモ サービス内容も簡単に記載していきます。 1.音楽配信サービスAPI Spotify API Spotify APIの明文化されていない仕様は以下にまとめてます。 Spotify APIの仕様についてまとめ 楽曲情報の取得やプレイリストの作成、再生コントロールのAPIなど一通りのREST APIが揃っている。 Albums Artists Browse (Spotifyのブラウズタブに表示される情報が取得できる。ニューリリースアルバムやカテゴリ情報、関連プレイリストなど) Follow(ユーザーやアーティストのフォロー関連のAPI) Library(ユーザーの保存したトラック、アルバム情報の操作) Personalization(ユーザーの試聴傾向に関する情報を取得できる)

    音楽系API(主に音楽配信サービス)まとめ - Qiita
  • 今すぐできる、『MusicBrainz』に音楽の情報を登録する方法とポイント

    前置きと方針 膨大な情報が集まっているMusicBrainzですが、データの源はあくまでユーザー一人ひとりの努力です。 検索に引っかかるのも、スキャンしたらなぜか曲情報がヒットするのも、全てどこかの誰かがMusicBrainzにデータを登録してくれたからです。それが例え誤っていたとしても。 ただ残念なことに、MusicBrainzに情報を登録する敷居は若干高いと言えます。 あまりにも細かい情報が入力できるし、カテゴライズは複雑で、最低限どこに何を入れればいいのかも分かりにくい。ちゃんとルールも決まっています。狂気じみたオタクしか気で情報を登録しないわけです。 またそもそも創設はアメリカなので、そもそも多少英語力が必要なことも日人にとってはハードルです。 ただ日ユーザーはかなりの数居るようで、それは音楽CDの文化をいつまでも引きずっている国だからなのかなとかも思ったりするのですが、とも

    今すぐできる、『MusicBrainz』に音楽の情報を登録する方法とポイント
  • 治療器(家庭用電気治療器) | Panasonic

    肩にかけるだけの高周波治療器。12個の高周波デバイスがコリのポイントにフィットして、コリの原因である血行を促進。

    治療器(家庭用電気治療器) | Panasonic
  • RAGの実案件に取り組んできた今までの知見をまとめてみた | DevelopersIO

    はじめに 新規事業部 生成AIチーム 山です。 ChatGPTOpenAI API)をはじめとしたAIの言語モデル(Large Language Model:以下、LLM)を使用して、チャットボットを構築するケースが増えています。通常、LLMが学習したときのデータに含まれている内容以外に関する質問には回答ができません。そのため、例えば社内システムに関するチャットボットを作成しようとしても、素のLLMでは質問に対してわからないという回答や異なる知識に基づいた回答が(当然ながら)得られてしまいます。 この問題を解決する方法として、Retrieval Augmented Generation(以下、RAG)という手法がよく使用されます。RAGでは、ユーザからの質問に回答するために必要そうな内容が書かれた文章を検索し、その文章をLLMへの入力(プロンプト)に付け加えて渡すことで、ユーザが欲しい

    RAGの実案件に取り組んできた今までの知見をまとめてみた | DevelopersIO
  • 国土交通省|住宅:空き家対策 特設サイト

    空家等対策の推進に関する 特別措置法の一部を改正する法律が\令和5年12月13日より施行されました。/

  • はじめまして!東京ガス内製開発チームです! - 東京ガス内製開発チーム Tech Blog

    みなさん、はじめまして! 東京ガスCX推進部デジタルマーケティンググループでエンジニアチームのリーダーをしております杉山です。 このたび、当チーム(以下、内製開発チームと呼びます)での技術的な取り組みについて紹介するため、 Tech Blog を開設しました! 実は私たち内製開発チームは note の方でも投稿しているのですが、このブログではソフトウェアエンジニアの内容に特化したものを投稿していく予定です💪 東京ガス内製開発チームって? 私たちのチームは myTOKYOGAS を中心としたお客さま接点のあるプロダクトを扱っております。23年11月、 myTOKYOGAS のリニューアルにあたって、私たちのチームはフロントエンド部分をフルリプレイスしました。 チームや部署、内製開発を始めた経緯については、ぜひ以下の note もご覧いただけたらと思います。 note.com myTOKYO

    はじめまして!東京ガス内製開発チームです! - 東京ガス内製開発チーム Tech Blog
  • Pytorch2.0でFlash Attentionを使ってみた話

    こんにちは、Fusicのハンです。株式会社Fusicでは機械学習関連のPoCから開発・運用まで様々なご相談に対応してます。もし困っていることがありましたら気軽にお声かけてください。 今回はFlash Attentionを使ってみたことについて、簡単に説明しようと思います。FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awarenessで紹介されたこのAttention方法は、早くて正確なAttentionアルゴリズムを実現し、より長いSequenceでのTransformer学習を行うことができます。 この記事では、Flash Attentionの理論的なことを解析することよりは、Pytorch2.0での実装を行う際、注意すべきな部分を整理しますので、論文の内容についてはFlashAttention -

    Pytorch2.0でFlash Attentionを使ってみた話
  • Vit(VisionTransformer)について理解を深める第二部[EncoderからMLPヘッドについて理解する]|内井祐作

    1.第一部のおさらい https://openreview.net/pdf?id=YicbFdNTTy:元論文から引用TransfomerからEncoderのみを活用したとて分かりやすいモデルであるVisionTransfomer(以後Vitとする)ですが、前回までは主にパッチとEmmbedingについて詳しく説明したと思います。 今回説明するのは、上の図であるTransfomer Encoderの部分からMLP HEADです。 Encoder、そしてMulti-Head-Self-AttentionがVitの根幹と言えるでしょう。 Transfomerでは、その次のdecoderというものも存在するのですが、Vitではそれは活用しません。 それでは早速解説していきます。 2.Normは何をしているのか?まずは、Normから説明していきます 名前の通り、正規化を意味する処理ですが 有名な正

    Vit(VisionTransformer)について理解を深める第二部[EncoderからMLPヘッドについて理解する]|内井祐作
  • 自然言語プレトレーニングモデルの紹介(1) - Qiita

    概要: この記事はZeals Advent Calendar 2020の1日目の記事です。 こんにちは。ZealsでSREエンジニアをしている周です。 Zealsでは主にインフラ周りを担当しています。 今回はAIによく使う自然言語処理(NLP)モデルついて説明します。 この記事の主な目的は、タイムラインを明確にし、プレトレーニングモデルの進化、モデル間の関係の整理と比較を行うことです。 具体的な理論と詳細については、元のペーパーとコードを参照してください。 まだ今回は初回として、ELMo、GPT、BERT3つモデルを紹介致します。 そもそもなぜプレトレーニングが必要か? 多くのNLPタスクは、言語に関する共通の知識を共有しているため(言語表現、構造的類似性など)。 タスクは相互に通知できるため。例: 構文とセマンティクス。 注釈付きのデータは少ないです。可能な限り多くの監督学習の成果を利用

    自然言語プレトレーニングモデルの紹介(1) - Qiita
  • 深層学習界の大前提Transformerの論文解説! - Qiita

    この例に関する質問への回答を補足の項に記載しましたので、より良い理解のためにご参照ください。 1.3 モデル構造 トランスダクションモデル(ある文章を他の文章に変換するモデル(翻訳など))において主流なのは以下のようなエンコーダ-デコーダモデルである。 エンコーダ: 入力の文 $(x_1,\ldots,x_n)$ を $\boldsymbol{z}=(z_1,\ldots,z_n)$ へ変換 デコーダ: $\boldsymbol{z}$ から単語 $(y_1,\ldots,y_m)$ を出力。 ただし、1時刻に1単語のみで、前時刻のデコーダの出力を現時刻のデコーダの入力として使う。 Transformerは基的な大枠はエンコーダ-デコーダモデルでself-attention層とPosition-wise全結合層を使用していることが特徴。 つまり、以下の3つ(+2つ)のことが分かればモデル

    深層学習界の大前提Transformerの論文解説! - Qiita
  • 機械学習エンジニアのためのTransformers

    「Hugging Face Transformers」を使った自然言語処理の解説書。2017年の登場以来、Transformerと呼ばれるアーキテクチャを使った大規模なモデルが急速に普及しています。書では、Hugging Faceの開発者らが、「Hugging Face Transformers」を使って、これらの大規模モデルを学習しスケールする方法をわかりやすく紹介します。テキスト分類、固有表現認識、テキスト生成、要約、質問応答といったタスクだけでなく、蒸留、量子化、枝刈り、ONNX Runtimeといったモデルの高速化技術、ラベル付きデータが少ないときに使えるゼロショット学習や少数事例学習、その他、多言語転移やドメイン適応といった類書では扱っていない技術についても解説しています。 賞賛の声 序文 訳者まえがき まえがき 1章 入門Transformers 1.1 エンコーダ・デコーダ

    機械学習エンジニアのためのTransformers
  • クリック率を最大化しない推薦システム

    セレンディピティのある推薦、多様性のある推薦、コンテンツ生産者を配慮した推薦など、クリック率の最大化(だけ)を目指さない推薦システムについての紹介です。 連絡先: @joisino_ (Twitter) / https://joisino.net/

    クリック率を最大化しない推薦システム
  • 最近自分がADHD対策でやっていること|牛尾 剛

    私はADHDで短期記憶が最悪で、とても気が散りやすい。些細なことかもしれないが、人にしてはなにやってもめっちゃくちゃ効率わるいし、やる気になるまで相当時間がかかる。よくあるのは休日に「これやらなきゃ」とか思ってスイッチがはいるのが夕の前ぐらいで、夕が始まるからそれも終了…ということもしょっちゅうある。 ADHDの特性の出方はかなり個人差があり、環境によってなにが「困りごと」になるかも様々だから他の人がどんな感じかわからないけど、集中力がクソほどなくて、効率が悪い自分にとって、働きやさ・生きやすさにつながった対処法を紹介したい。 自分が手を動かす前にメモを書く 自分にとってはとても有効な方法で、特に仕事するときとかそうだけど、今から自分が何をするのかの箇条書きを初めて、そこに書かれた通りに作業をする。だから自分は会社に着いたらその日にやることを書きだす癖をつけている。いきなり作業をやり

    最近自分がADHD対策でやっていること|牛尾 剛
    kaoh_siung
    kaoh_siung 2024/02/05
    “自分が手を動かす前にメモを書く”
  • VSCodeでsshするわよ!

    背景 VSCodeでsshできることは知っていたのですが,実際にやってみたことがなかったので試してみました. 環境 拡張機能のインストール sshを使うには拡張機能をインストールする必要があります.ありがたいことに方法が公式ドキュメントにありましたので,この通り進めていきます. 必要なのはRemote Developmentという拡張機能のみです. ネットでぐぐってみるとRemote SSHという拡張機能をインストールしている記事が多かったのですが,Remote Developmentは Remote SSH Remote Containers Remote WSL の3つの拡張機能も自動でインストールします. そして,sshするのにはRemote SSHを使うのでどちらをインストールしても違いはありません. ではインストールしていきます.VSCode拡張機能インストールのところを開いて

    VSCodeでsshするわよ!
  • プロダクト開発の優先順位付けツール「RICE」のSaaS向け実践例

    クラウドファンディングサービスを運営する、READYFOR株式会社でプロダクトマネージャーをやっています。kecyです。 この記事は「READYFOR Advent Calendar 2022」の14日目の記事としてお送りします。 今回は、自社プロダクトの開発を進めていく上で大きなテーマの一つとなる「優先順位付け」についてREADYFORでの事例を紹介します。 「RICE」とは RICEは、プロダクト開発の施策それぞれに優先度のスコアをつけるための手法です。 「RICE」の頭文字である、 Reach: リーチの広さ Impact: 事業へのインパクトの大きさ Confidence: 成功確度=期待通りのインパクトが実現する確度 Effort: 工数の大きさ の4観点で点数評価して、 \text{Score} = \frac{{\text{Reach} \times \text{Impact

    プロダクト開発の優先順位付けツール「RICE」のSaaS向け実践例
  • LIXIL、現場社員3963人がノーコード開発で1万7007個のアプリケーションを開発 | IT Leaders

    IT Leaders トップ > テクノロジー一覧 > 開発ツール/プラットフォーム > 事例ニュース > LIXIL、現場社員3963人がノーコード開発で1万7007個のアプリケーションを開発 開発ツール/プラットフォーム 開発ツール/プラットフォーム記事一覧へ [事例ニュース] LIXIL、現場社員3963人がノーコード開発で1万7007個のアプリケーションを開発 経営陣全員がGoogle AppSheetでアプリケーション開発を経験 2022年6月24日(金)日川 佳三(IT Leaders編集部) リスト 住まいの水まわり製品と建材製品を開発・提供するLIXILは2022年6月24日、Google Cloud Japanが開催した説明会に登壇し、ローコード開発によるアプリケーション開発の民主化の取り組みを説明した同社は、社員みずからGoogle AppSheetを使ってアプリケーシ

    LIXIL、現場社員3963人がノーコード開発で1万7007個のアプリケーションを開発 | IT Leaders
  • AlphaGeometry: An Olympiad-level AI system for geometry

    Research AlphaGeometry: An Olympiad-level AI system for geometry Published 17 January 2024 Authors Trieu Trinh and Thang Luong Our AI system surpasses the state-of-the-art approach for geometry problems, advancing AI reasoning in mathematics Reflecting the Olympic spirit of ancient Greece, the International Mathematical Olympiad is a modern-day arena for the world's brightest high-school mathemati

    AlphaGeometry: An Olympiad-level AI system for geometry
  • Org Topologies を少し使ってみた - bonotakeの日記

    この記事は元々LinkedInに英語で書いた記事を、せっかくだから日語に翻訳してちょっと手直ししたものです。先に英語で書いて、その後日語にざっくり訳してるので何か日語が微妙ですが許して。 最近、Org Topologies というフレームワークに興味を持っています。アジャイル組織の成熟度、ケイパビリティを評価するツールで、それを2軸のマップ上にある、16種類のアーキタイプにシンプルに可視化・分類することができます。 www.orgtopologies.com その Org Topologiesを、最近支援に入っているログラス社内に紹介してみました。同社では、1つのプロダクトを複数の機能領域に分け、それぞれの領域を独立したスクラムチームが担当しています。各スクラムチームは、単独のチームとしての能力は高いのですが、チーム間の連携はそれほどしていない状態です。 そんなログラス社内で有志を集

    Org Topologies を少し使ってみた - bonotakeの日記
  • Assessing the limits of zero-shot foundation models in single-cell biology

  • 2022-10-14-geeksai

    2022/10/14技育祭2022での登壇資料 「後悔しないキャリア選択のために私が伝えたい3つのこと」

    2022-10-14-geeksai