タグ

graphとWに関するsh19910711のブックマーク (8)

  • 書籍「グラフ深層学習」を参考にGNNのグラフ埋め込みをやってみた - Qiita

    記事の概要 GNNのグラフ埋め込みをpythonでの実装も含めてやってみたよ GNN のライブラリは使わずにやったよ 書籍「グラフ深層学習」の4章を参考にしているよ 簡単な理論とコードを載せているよ 僕と同じくGNNビギナーの方の参考になればうれしいよ モチベーション グラフニューラルネットワーク(GNN)について耳にする機会が増えたこと、また今年に入って書籍が続けて発行されたことから、GNN勉強してみたい!という人が増えているのではないでしょうか。 わたしもその一人で、独学ですが「グラフ深層学習(2023, ヤオ マー &ジリアン タン)」を読み進めています。 「グラフ深層学習」はグラフ理論の紹介から始まり、4章でグラフの特徴を抽出する グラフ埋め込み を取り上げています。 LLMなどでも使われる「埋め込み(embedding)」ですが、グラフにおいても特徴抽出の手法(教師なし学習)と

    書籍「グラフ深層学習」を参考にGNNのグラフ埋め込みをやってみた - Qiita
    sh19910711
    sh19910711 2024/05/27
    "「グラフ深層学習」の4章を参考 / タスクに応じた有用なベクトル表現を得ることが重要 / 元のグラフの情報をできるだけ保存する + その後のタスクで使用したい情報をなるべく保存できる写像が良い"
  • QiitaのGNNタグ付けレコメンドにテキスト情報を追加してみる - Qiita

    前身となった記事 2つを掛け合わせたような記事です. タグ同士のリンク情報に加えて,記事内容をベクトル化したものを加えることで,さらに良い推論結果が出せるのではないかということで実践してみることにしました.Heterogeneous Graphをカスタムデータに使ってみたいという方におすすめです. 以下の流れで実装を進めていきます. データセットの用意 テキストデータをベクトル化 グラフデータを用意する 学習 評価 実装のnotebookはgithubに挙げてますので,記載していない細かい部分が気になる方はそちらを参照してください.(あまり精査してませんが) https://github.com/taguch1s/qiita-tag-recommend/tree/main いろいろ細かい部分はスルーしてとりあえず実装までこぎつけた感じなので,気になる部分がありましたらご教授いただけますと幸

    QiitaのGNNタグ付けレコメンドにテキスト情報を追加してみる - Qiita
    sh19910711
    sh19910711 2024/05/01
    "タグ同士のリンク情報に加えて,記事内容をベクトル化したものを加える / 内容とタイトルのテキストデータを結合してdoc2vecで学習 / タグのテキストデータをグラフで利用できる形に変換 + pytorch-geometricのtutorial を参考"
  • 【論文紹介】E(n) Equivariant Graph Neural Networks - Pseudo Theory of Everything

    対称性が課された機械学習の理論に興味があり、なんとなく探していたところ、最近出た論文に読みやすそうなものがあったので読んでみました。次の論文を紹介したいと思います。 arxiv.org イントロダクション この論文では、グラフニューラルネットワーク(GNN)に \(E(n)\) 変換のもとで同変(equivariant)性を課したモデルを構築しています。 \(E(n)\) は \(n\) 次元ユークリッド空間での等長変換群であり、回転、並進、鏡映、置換からなりますが、今回の論文では基的に回転と並進に着目しているように思えます。このような変換を考えることのモチベーションとしてはData Augmentationなどがあるようで、著者たちの過去の関連論文では arxiv.org などがあります。後に紹介しますが、グラフニューラルネットワークに対称性を課した研究は、点群(point cloud

    【論文紹介】E(n) Equivariant Graph Neural Networks - Pseudo Theory of Everything
    sh19910711
    sh19910711 2024/04/22
    "n次元ユークリッド空間での等長変換群 + モチベーションとしてはData Augmentationなど / 従来のグラフニューラルネットワークで使われるノードの特徴ベクトルhの他に実際のノードの座標であるxを導入" arXiv:2102.09844 2021
  • 【論文紹介】 Node2Vecでネットワークのベクトル埋め込みを学習する。 - Qiita

    卒論のためにNode2Vecの論文を読んだので、この手法でネットワークの構造を学習する方法について解説します。数式を追わなくてもある程度理解できるようになっていると思います。 参考元 元論文: node2vec: Scalable Feature Learning for Networks PyTorch GeometricのNode2Vecモデル: torch_geometric.nn.models.Node2Vec 再現実装の際にPyTorch Geometric(PyG)のモデルを用いたので、論文に明記されていない学習方法などはこちらを参考にしました。 Node2Vecとは Node2Vecは、 ランダムウォークによってグラフの特徴が乗った系列を生成する 生成したウォークの系列をWord2VecのSkip-Gramモデルの入力とし、目的関数を最適化する という手順でグラフの分散表現を

    【論文紹介】 Node2Vecでネットワークのベクトル埋め込みを学習する。 - Qiita
    sh19910711
    sh19910711 2024/04/20
    "参考元 PyTorch GeometricのNode2Vecモデル / Node2Vec: 半教師あり学習によって計算速度と精度を両立 / Negative Samplingの論文やNCE(Noise Contrastive Estimation)などについて調べてみると良い" 2023
  • 意思決定の理由の可視化が可能なグラフ構造の学習アルゴリズムの紹介 - ZOZO TECH BLOG

    ZOZO研究所の清水です。弊社の社会人ドクター制度を活用しながら、「社内外に蓄積されているデータからビジネスへの活用が可能な知見を獲得するための技術」の研究開発に取り組んでいます。 弊社の社会人ドクター制度に関しては、以下の記事をご覧ください。 technote.zozo.com 私が現在取り組んでいるテーマの1つに、「機械学習が導き出した意思決定の理由の可視化」があります。この分野は「Explainable Artificial Intelligence(XAI)」と呼ばれ、近年注目を集めています。 図.XAIに関連する文献数の推移(引用:https://arxiv.org/abs/1910.10045) その中でも今回はユーザに対するアイテムの推薦問題に焦点を当て、「なぜこのユーザに対して、このアイテムが推薦されたのか?」という推薦理由の可視化が可能なモデルを紹介します。 記事の概要

    意思決定の理由の可視化が可能なグラフ構造の学習アルゴリズムの紹介 - ZOZO TECH BLOG
    sh19910711
    sh19910711 2021/11/29
    "精度の高いモデルほど、モデルの解釈性は低くなるというトレードオフ / TransRというグラフ埋め込みの手法を用いて各Tripletをベクトル化し、グラフ上に存在するTripletと存在しないTripletの差を最大化"
  • DeepWalking Backwards:�From Embeddings Back to Graphs

    sh19910711
    sh19910711 2021/08/19
    "NetMF (DeepWalk) の逆変換 / NetMF: DeepWalk 系アルゴリズムを行列因子分解の形で解釈 / どんな情報を保存しているのか埋め込みを再度グラフに戻すことで確認 / コミュニティの情報が再構成後も保持されている"
  • 良いnode embeddingとは? / How to evaluate node embeddings

    ■イベント 
:ML勉強会 https://sansan.connpass.com/event/211420/ ■登壇概要 タイトル:良いnode embeddingとは? 発表者: 
DSOC R&D研究員  大垣 翔 ▼Twitter https://twitter.com/SansanRandD

    良いnode embeddingとは? / How to evaluate node embeddings
    sh19910711
    sh19910711 2021/07/10
    "辺の情報がうまく反映されている / 離散データの取り扱いは難しい => 頂点を連続の世界で取り扱える / metric embedding"
  • 距離の観点からノードの分散表現を俯瞰する - Sansan Tech Blog

    こんにちは、Sansan DSOC 研究開発部の保坂です。今回の記事は、弊社のアドベントカレンダーで書いた記事 で行った分析を少し丁寧にやり直してまとめたものです。 はじめに 分散表現間の距離 RPD とタスクにおける性能差との関係 RPD で計算された単語の分散表現間の関係 ノードの分散表現の学習アルゴリズム [実験] RPD でノードの分散表現間の関係を計算してみる [実験] RPD とノード分類タスクにおける性能との関係を調査する さいごに はじめに 最近では、ニュース記事などの言語データや、SNS上の友人関係のようなグラフデータを取り扱う研究がさかんになっています。これらのデータを対象にした研究がさかんになっている理由の一つとして、来数値として扱いづらい単語やノードを、その性質を保持したベクトルとして表現する分散表現と呼ばれる技術の発達があります。 しかし、実際は多様な分散表現の

    距離の観点からノードの分散表現を俯瞰する - Sansan Tech Blog
    sh19910711
    sh19910711 2021/02/02
    “ACL 2020 で、RPD: A Distance Function Between Word Embeddings という題目の発表 / 異なるアルゴリズムで学習された分散表現間の距離関数 / 妥当性および単語の分散表現間の関係性について分析”
  • 1