タグ

Wに関するsh19910711のブックマーク (82)

  • 深層学習の量子化に入門してみた 〜BERTをStatic Quantization〜 - Retrieva TECH BLOG

    こんにちは。 リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関する研究の最新動向の調査・キャッチアップなどを行っております。 前々回、深層学習の量子化について簡単な解説記事を公開しました。 前回はDynamic Quantizationを試した記事を公開しました。 今回はStatic Quantizationを実際に試してみようと思います。 Static Quantizationの概要 ONNX Runtimeを利用した量子化方法紹介 データの準備および単語分割を行う 量子化のConfigを作成 Calibrationを実行してscale factorを計算する 量子化適用前に除外するノードを定義 量子化の実行 量子化実験 実験設定 推論速度の比較 まとめ Static Quantizationの概要 Static Quantization(Post Tr

    深層学習の量子化に入門してみた 〜BERTをStatic Quantization〜 - Retrieva TECH BLOG
    sh19910711
    sh19910711 2024/05/13
    "Static Quantizationを行うことで、量子化を行わない場合より推論速度を高速化 + 一方でStatic QuantizationよりもDynamic Quantizationの方が推論速度が速いこともわかり / optimum: お手軽にPyTorchのBERTを量子化したONNXモデルに変換" 2022
  • ポアンカレエンベッディング - にほんごのれんしゅう

    ポアンカレエンベッディング Euclid空間にエンベッディングするようなword2vecは意味の上下関係が明示的に記されません。(情報としたあったとしても僅かでしょう) ポアンカレボールという双曲幾何学空間に埋め込むことで、効率的に意味(や木構造)の上位関係をとらえることができます[1] 理解 ポアンカレボールはこのような、外周部に行くほど密になる球みたいなものなのです。 図1. ハニカム構造のPoincare Ball(Wikipediaより) ポアンカレボールでは外に行くほど情報が密になり、空間が広がっているともとらえます。 数式で表現するとこのようになって、 gEというユークリッド距離がxが1に近づけば無限に大きくなることがわかります。 このポアンカレボール上にある二点間の距離はこのように表現され、単純なユークリッド距離ではないことが見て取れます。 この距離関数に基づいて損失関数L(

    ポアンカレエンベッディング - にほんごのれんしゅう
    sh19910711
    sh19910711 2024/05/13
    "ポアンカレボール: 外周部に行くほど密になる球みたいなもの + 外に行くほど情報が密になり、空間が広がっている / 情報が何らかの上下関係を持っており、木構造で表現できるとき、ルートノードが真ん中に" 2018
  • embeddingを用いた分析・検索・推薦の技術

    『Future Tech Night #17「embeddingの活用」と「MLOps」のAI勉強会』(https://future.connpass.com/event/231310/)で発表した資料です。

    embeddingを用いた分析・検索・推薦の技術
    sh19910711
    sh19910711 2024/05/13
    "LaBSE: 英語をpivotに109ヵ国語をベクトルへ変換可能 / USE-L: 16ヵ国語に対応 + Transformerを用いており文長Lに対しO(L^2)で動作し重いがその分精度がいい + USEに比べ14倍の実行時間 / faissに実装されているspherical kmeans" 2021
  • Autoencoderを用いたOutfitからのスタイル抽出/style auto encoder

    sh19910711
    sh19910711 2024/05/13
    "Autoencoderの仕組みを利用してスタイル混合比と基底スタイルを獲得する / 誤差関数はhinge loss + 復元時に用いる行列について、各行が独立となるように正則化をかける + 行列の各行は基底スタイルを表す" 2018
  • Poincaré Embeddings でJ1リーグのチーム・選手を可視化 - u++の備忘録

    ふと「Poincaré Embeddings」*1で遊んでみたいと思い立ち、サッカーJ1リーグのデータで試してみました。 Poincaré Embeddings gensimでの実装とデータセット Poincaré Embeddingsの学習 活用方法 おわりに Poincaré Embeddings Poincaré Embeddingsに関する説明は、ABEJA*2やscouty*3のブログに譲ります。 Poincaré Embeddings は端的に言うと word2vec の埋め込み先をユークリッド空間ではなく双曲空間にするという手法で、階層構造やべき分布をもつデータを埋め込むという問題設定において、低次元でもよい表現を与えられるという特徴があります。 Poincaré Embeddings による職種の類似度計算とその利用 - LAPRAS AI LAB gensimでの実装とデ

    Poincaré Embeddings でJ1リーグのチーム・選手を可視化 - u++の備忘録
    sh19910711
    sh19910711 2024/05/11
    "gensimの実装では正則化の影響で周囲にノードが集結しすぎないような工夫 / チーム名が中心 + 円周側に選手 / 「浦和レッズ」の近くに「サンフレッチェ広島」が配置 + 移籍した選手の影響ではないか" 2019
  • 小規模データセットに対するニューラルネットの汎化性能の理由に迫る論文:Modern Neural Networks Generalize on Small Data Sets | 10001 ideas

    小規模データセットに対するニューラルネットの汎化性能の理由に迫る論文:Modern Neural Networks Generalize on Small Data Sets | 10001 ideas
    sh19910711
    sh19910711 2024/05/09
    "大規模ニューラルネットがランダムフォレストのように複数のモデルのアンサンブルとして予測を行っていることを示して / ドロップアウトを使うとさらにランダムフォレストの結果に近づく" doi:10.5555/3327144.3327279 2019
  • Self Distillationって何?AlphaFold2では何をしているの? - magattacaのブログ

    先日AlphaFold2についてのPodCastを聞きました。知らないことばかりで「あーなるほどそういう話だったのかー」と興味深かったです。専門の先生方の議論を拝聴できるのはすばらしいですね。 AlphaFold2はディープランニングの専門の方から見ても、面白い技術がたくさん使われているそうですが、ど素人にはそもそもどこが生物学で、どこが深層学習的な話なのかわからないです。 というわけで、今回は深層学習の用語らしい「Self distillation」について調べてみました。ついでにAlphaFold2での使用例もちょっと見たいと思います。 www.nature.com 1. Self distillation 1-1. 知識蒸留はモデル圧縮の技術 1-2. 大事な知識はソフトな知識 1-3. 自己蒸留 ~Be Your Own Teacher~ 1-4. どうして自己蒸留で精度が上がるの

    Self Distillationって何?AlphaFold2では何をしているの? - magattacaのブログ
    sh19910711
    sh19910711 2024/05/07
    "自己蒸留: どっちも同じモデル(自分自身)にしちゃえば良いんじゃない / 知識蒸留では不正解に対する知識も大事 / 同じモデルを使っていてもアンサンブルのように精度が高くなる" 2021
  • Amazon Titan Text Embedding V2 を試してみた | DevelopersIO

    特にV2ではベクトルサイズ(dimensions)を柔軟に選択できるようになったため、用途に応じて適切な値を選択すると良さそうです。 使用ライブラリ 今回使用するライブラリは、boto3のみです。 boto3:1.34.61 コサイン類似度を計算する際、一般的には以下のブログのようにNumPyやSciPyという外部ライブラリを別途導入し利用する事が多いです。 今回はあえて外部ライブラリを使わず、boto3以外はPythonの標準ライブラリのみでコサイン類似度を計算します。 boto3がプリインストールされているCloudShell等の環境であれば追加の外部ライブラリなしで実行できるので、ぜひそちらでお試しください。 スクリプト内容 Pythonのスクリプトを以下に示します。 スクリプト実行時の引数に比較対象となる2つの文を指定して実行すると、コサイン類似度が出力されます。 また今回はオレゴ

    Amazon Titan Text Embedding V2 を試してみた | DevelopersIO
    sh19910711
    sh19910711 2024/05/07
    "Titan Text Embeddings V2: ベクトルの正規化をサポート + トークンあたりの価格が低下 + 100万トークンあたり 0.02USD / 小さいベクトルサイズを選択する事でデータベースから文書抽出を検索して取得するための待ち時間を短縮"
  • metric learning のファッション分野における活躍

    この記事の目的は? ファッションの3つの研究分野において、 metric learning がどう使われているかを説明し、関連文献をいくつか紹介します。 metric learning やファッションの研究に興味を持たれた方が、研究を始めやすくなればと考えています。 street-to-shop image retrieval どんな研究か? ファッションアイテムの自撮り画像から、ECサイトで使われるような商品画像を検索 するための研究です。ファッションに限らない、一般的な呼び方だと cross-domain image retrieval と呼んだりもします。 図:自撮り画像の例 図:商品画像の例 出典: (M. Hadi Kiapour et al., 2015, ICCV) Where to Buy It: Matching Street Clothing Photos in Onl

    metric learning のファッション分野における活躍
    sh19910711
    sh19910711 2024/05/05
    "compatibility learning: デニムジャケットにはボーダーのTシャツが合う、というようなことを学習 + コーデの採点 / アイテム特徴量を reduce して得られる文脈ベクトルをスタイルとみなし + metric learning" arXiv:1707.05691 2020
  • レコメンドで使用する類似アイテムをAmazon Bedrockとitem2vecで計算・比較検証してみた - コネヒト開発者ブログ

    みなさんこんにちは。MLエンジニアのたかぱい(@takapy0210)です。 最近、久しぶりに機動戦士ガンダムSEEDを見直しました。(来年には劇場版の公開もあります) 地球連合軍第7機動艦隊に所属するパイロットであるムウさんの 「君は出来るだけの力を持っているだろう?なら、出来ることをやれよ」 というセリフが好きです。 相手をリスペクトしつつ、でもお前はもっとできるだろ?という期待も込もった、良い言葉だなと感じます。 さて日は、レコメンドで使用頻度の高い類似アイテムの計算処理を2パターンで実施し、どんな差分がでるのか?を検証した結果をお話ししようと思います。 この記事はコネヒト Advent Calendarのカレンダー 10日目の記事です。 adventar.org 目次 背景 Amazon Bedrockの埋め込みモデルでベクトルを取得する item2vecで計算したベクトルを取得

    レコメンドで使用する類似アイテムをAmazon Bedrockとitem2vecで計算・比較検証してみた - コネヒト開発者ブログ
    sh19910711
    sh19910711 2024/05/03
    "EmbeddingはOpenSearchに格納し、その機能を利用して類似質問を抽出 / レコメンデーションには大きく分けて「探索 (Exploration)」と「活用 (Exploitation)」がある / 探索の主な目的は新しい知見を得ること" 2023
  • ALAE (敵対的潜在空間自己符号化器, Adversarial Latent Autoencoder) を使ってみた - Qiita

    ALAE (敵対的潜在空間自己符号化器, Adversarial Latent Autoencoder) を使ってみたPythonDeepLearningAutoencoderGANVAE 概要 StyleGANの潜在空間次元分離性(PPLで表すDisentanglement)を大幅に改善した上に、 1024xの高解像度の画像を生成できるメリットを保つ画像生成手法、ALAE。 これを応用するために必要なことを調べながら一通りやってみました。 論文のFig.9で選ばれたサンプルは実際どう再構築されるのかを知るために生成した画像 ALAEを理解する 応用に関わるいくつの論文を説明します。 Progressive Growing (Style)ALAEの構造はStyleGANから改善され、StyleGANはさらにProgressive Growingの論文の構造にStyleを入れたものなので、ま

    ALAE (敵対的潜在空間自己符号化器, Adversarial Latent Autoencoder) を使ってみた - Qiita
    sh19910711
    sh19910711 2024/05/03
    "StyleGAN: 各層の出力特徴マップの平均と分散をAdaINで制御 / ALAE: StyleGANの潜在空間次元分離性(PPLで表すDisentanglement)を大幅に改善 + 潜在空間上にある分布を近づかせようとするのでLatent Autoencoder" arXiv:2004.04467 2021
  • Disentangled な表現の教師なし学習手法の検証 - Preferred Networks Research & Development

    記事は、2019年インターンシップに参加された蕭喬仁さんによる寄稿です。 はじめまして。PFN の2019夏季インターンシップに参加した東京大学の蕭喬仁です。 大学では自然言語処理について研究しており、SNS からのマイニングに興味があります。 今回のインターンでは「Disentangled な表現の教師なし学習手法の検証 (Unsupervised Disentangled Representation Learning)」というテーマで研究を行いましたので、その紹介をいたします。 実験に使用したコードはこちら https://github.com/pfnet-research/chainer-disentanglement-lib で公開しています。 Disentangledな表現 映画 Star Wars がお好きな方は ”imperial entanglements” という表現

    Disentangled な表現の教師なし学習手法の検証 - Preferred Networks Research & Development
    sh19910711
    sh19910711 2024/05/02
    "潜在変数の次元数や種類がパフォーマンスにどのような影響を与えるか / Disentangled Representation: 潜在空間中の各次元が観測データ中の因子や性状ごとに分かれているような状態" 2019
  • 複数の関連度から検索可能な BGE M3-Embedding の紹介 - Algomatic Tech Blog

    こんにちは。Algomatic の宮脇(@catshun_)です。 記事では文書検索において一部注目された BGE M3-Embedding について簡単に紹介します。 Chen+'24 - BGE M3-Embedding: Multi-Lingual, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation おことわり 記事では精読レベルの 詳細な解説は含みません。 詳細については 参照元の論文をご確認ください。 不十分また不適切な言及内容がございましたらご指摘いただけますと幸いです。 プロダクト等の利用時は 必ずライセンスや利用規約を参照して下さい。 記事で紹介する 論文 は Work in progress とコメントされており今後内容が更新される可能

    複数の関連度から検索可能な BGE M3-Embedding の紹介 - Algomatic Tech Blog
    sh19910711
    sh19910711 2024/05/02
    "ベクトル表現を用いた類似度算出に基づく検索は sparse retrieval, dense retrieval, multi-vector retrieval に大別 / M3-Embedding: これら 3 つの機能を有する高性能な埋め込みモデルとして提案" arXiv:2402.03216
  • 夏のトップカンファレンス論文読み会 / InnovationMeetup20170918csn_cvpr2k17

    夏のトップカンファレンス論文読み会(2017/09/18)での発表資料です。 - connpass: https://abeja-innovation-meetup.connpass.com/event/63466/ - 著者実装: https://github.com/andreasveit/conditional-similarity-networks - 散布図: https://github.com/crcrpar/conditional_similarity_networks_pytorch

    夏のトップカンファレンス論文読み会 / InnovationMeetup20170918csn_cvpr2k17
    sh19910711
    sh19910711 2024/05/01
    "類似度計算: 「似ている」は画像の属性ごとに計算できると嬉しい + 1つの基準につき、1つのモデルを用意するのは効率が悪い / ベクトルにマスクを適用 + 空間を分割することで複数の類似度計算を可能に" arXiv:1603.07810 2017
  • The Web Conference 2020 Report -多目的最適化における確率的ラベル集約-

    kcp: Kubernetes APIs Are All You Need #techfeed_live / TechFeed Experts Night 28th

    The Web Conference 2020 Report -多目的最適化における確率的ラベル集約-
    sh19910711
    sh19910711 2024/05/01
    "Google Driveの検索 / QueryとDocumentのEmbeddingの要素積 / Latent Cross: Attentionの一種 + 特徴量間の相互作用を効率的に学習 / Embedding要素積とLatent Crossを組み合わせることが効果的" doi:10.1145/3366423.3380046 2020
  • QiitaのGNNタグ付けレコメンドにテキスト情報を追加してみる - Qiita

    前身となった記事 2つを掛け合わせたような記事です. タグ同士のリンク情報に加えて,記事内容をベクトル化したものを加えることで,さらに良い推論結果が出せるのではないかということで実践してみることにしました.Heterogeneous Graphをカスタムデータに使ってみたいという方におすすめです. 以下の流れで実装を進めていきます. データセットの用意 テキストデータをベクトル化 グラフデータを用意する 学習 評価 実装のnotebookはgithubに挙げてますので,記載していない細かい部分が気になる方はそちらを参照してください.(あまり精査してませんが) https://github.com/taguch1s/qiita-tag-recommend/tree/main いろいろ細かい部分はスルーしてとりあえず実装までこぎつけた感じなので,気になる部分がありましたらご教授いただけますと幸

    QiitaのGNNタグ付けレコメンドにテキスト情報を追加してみる - Qiita
    sh19910711
    sh19910711 2024/05/01
    "タグ同士のリンク情報に加えて,記事内容をベクトル化したものを加える / 内容とタイトルのテキストデータを結合してdoc2vecで学習 / タグのテキストデータをグラフで利用できる形に変換 + pytorch-geometricのtutorial を参考"
  • 2021年で面白かったTransformer関連論文 - moriyamaのエンジニアリング備忘録

    この記事はみらい翻訳アドベントカレンダー14日目の記事です。 2021年も終わりを迎える中、個人的には転職してからちょうど1年経ちました。 機械翻訳の研究開発に携わることもあり、自然言語処理や深層学習全般を中心にいろいろな論文を読んだ一年でした。 年末にありがちな今年の論文BEST10のようなランキングを作ってみようと考えたが、選定とランキング基準がなかなか定まらず、それだけで数日かかりそうだったので、Transformer関連論文に絞ってまとめてみようと思います。 今年も昨年に続きTransformer is all you needの色が一層強くなったと感じます。Transformer自体は自然言語処理を題材に提案されたモデルですが、最近は画像領域や音声領域でも高い性能を発揮しています。 強く注目されているモデルということもあり、構造の細部にフォーカスした多くの研究がありましたので、そ

    2021年で面白かったTransformer関連論文 - moriyamaのエンジニアリング備忘録
    sh19910711
    sh19910711 2024/04/29
    "CANINE: 各文字に対して複数のハッシュ化を通じて数値化し、それらを連結して文の数値表現とする + 複数の文字トークンに対して一定幅で畳み込みを行うことで疑似的に単語にあたる表現を得る" arXiv:2103.06874 2021
  • Kaggle のデータ分析コンペ Shopee - Price Match Guarantee で『10位 / 2,426チーム』を獲得しました | MoT Lab (GO Inc. Engineering Blog)

    初めまして。MoTのAI技術開発部アルゴリズム第一グループの島越 [1]です。ブログでは、私が最近ソロで10位を獲得したKaggleのコンペティション「Shopee - Price Match Guarantee」で行った取り組みについてと上位の手法について紹介したいと思います。なお、記事で使用している画像は特に断りがない限り、上記コンペの画像を使用しております。 1. コンペについて まず、今回のコンペがどのようなタスクを解く問題だったのかについてご紹介します。このコンペは、東南アジア最大級のECプラットフォームであるShopeeが開催したもので、データとしてはユーザが登録した商品画像と商品のタイトルが与えられます。また、ラベルとしてはユーザが登録した商品の種別が与えられています。このラベルは、ユーザが登録したものなので、ノイズが多く載っているものになっており、同じ画像や同じタイト

    Kaggle のデータ分析コンペ Shopee - Price Match Guarantee で『10位 / 2,426チーム』を獲得しました | MoT Lab (GO Inc. Engineering Blog)
    sh19910711
    sh19910711 2024/04/28
    "多様なEmbeddingを用いてアンサンブルをするときにどうすればいいのか / それぞれL2 Normalizeしてからconcatする / 当たり前と言えば当たり前ですが、L2 normalizeせずにconcatしてしまうとそこまで改善が得られませんでした" 2021
  • Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog

    2.3k{icon} {views} 複数のLLM(GPT/Claude3)とArxivの検索APIをRAGで統合し、論文サーベイの自動生成を作りました。検索結果の前処理や、サーベイ特有のプロンプトエンジニアリングやソートが重要で、最適化手法として古くからある巡回セールスマン問題(TSP)が有効に機能しました。また、生成部分ではGPTよりClaude3の明確な有効性を確認できました。 できたもの Arxivの検索APIを使って検索拡張生成(RAG)したらサーベイを自動生成できた やっていること Arxivの検索ワードをGPT-4-Turboで生成 ArxivのAPIを叩いてヒューリスティックでフィルタリング OpenAIEmbedding APIを叩く Embeddingに対して巡回セールスマン問題(TSP)を解いてソートをかける 論文の要旨をGPT-3.5-Turboで要約 ソートした

    Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog
    sh19910711
    sh19910711 2024/04/28
    "GPT-4-TurboのJSONモードを使い、検索ワードを生成 + 「Arxiv検索で」と明示させればそれっぽい / Embeddingに対してTSPを解いてソート + テーマ内での近しい内容同士が数珠つなぎで並べ替えた上で与えられたほうが良い"
  • 多値分類における階層構造を利用したマルチタスク学習とその解釈性 / Multi-task Learning for solving hierarchical multilabel classification and its interpretability - Speaker Deck

    ■イベント 【Sansan×エムスリー】自然言語処理勉強会(ライブ配信あり) https://sansan.connpass.com/event/125652/ ■登壇概要 タイトル:多値分類における階層構造を利用したマルチタスク学習とその解釈性 登壇者:DSOC R&D Group 奥田裕樹 ▼Sansan Builders Box https://buildersbox.corp-sansan.com/

    多値分類における階層構造を利用したマルチタスク学習とその解釈性 / Multi-task Learning for solving hierarchical multilabel classification and its interpretability - Speaker Deck
    sh19910711
    sh19910711 2024/04/27
    "MTL: ラベルのメタ情報を上手く活用したい + 上位構造を推定することで目的とする下位構造の推定が容易になるのでは / MTL-Stack-Concat: Task-specific Layerの入力をShared Layerの出力に加えて単語ベクトルも連結" 2019