タグ

graphと*algorithmに関するsh19910711のブックマーク (154)

  • 【論文解説】Enhanced Multi-Relationships Integration Graph Convolutional Network for Inferring Substitutable and Complementary Items - Qiita

    【論文解説】Enhanced Multi-Relationships Integration Graph Convolutional Network for Inferring Substitutable and Complementary ItemsMachineLearningDNNRecommendation論文読みGNN はじめに 出典: AAAI 2023 Enhanced Multi-Relationships Integration Graph Convolutional Network for Inferring Substitutable and Complementary Items という、AAAIに提出された論文を紹介します。 この論文は中国のMeituan Maicaiと呼ばれるオンラインスーパーマーケットの研究者が取り組んだ、商品推薦の論文です。 論文を選んだ動

    【論文解説】Enhanced Multi-Relationships Integration Graph Convolutional Network for Inferring Substitutable and Complementary Items - Qiita
    sh19910711
    sh19910711 2024/05/21
    "E-Commerceサイトの推薦: ユーザーが見ている商品の代替商品だけでなく一緒に買われる補完商品の推定も重要 / 関係の強さも考慮したtriplet loss + 代替商品と補完商品それぞれの埋め込みベクトルを交差" doi:10.1609/aaai.v37i4.25532
  • グラフ信号処理におけるサンプリングと復元 - 甲斐性なしのブログ

    はじめに グラフ信号処理に関する日語の書籍が昨年発売された。 グラフ信号処理の基礎と応用: ネットワーク上データのフーリエ変換,フィルタリング,学習 (次世代信号情報処理シリーズ 5) 作者:田中 雄一コロナ社Amazon 記事ではその中で解説されているグラフ信号のサンプリングと部分空間情報を利用した復元について簡単にまとめた上で、実際に試てみた際のコードと結果を紹介する。 グラフ信号処理の諸概念 グラフ信号 グラフ信号は下図のようにグラフの各頂点上に値を持つ信号である。 このような頂点上に値を持つグラフの例としては、空間上に配置された複数のセンサーが挙げられる。これは、近くにあるセンサー同士が辺でつなげば、その計測値はグラフ信号とみなせる。それ以外にも、路線図と各駅の人口、SNSのつながりと各ユーザの特性(年齢などの何らかの数値)等々、グラフ信号としてモデル化できる現実の事象は様々存

    グラフ信号処理におけるサンプリングと復元 - 甲斐性なしのブログ
    sh19910711
    sh19910711 2024/05/13
    "グラフ信号としてモデル化できる現実の事象は様々 + 時系列信号や画像も時刻、画素を頂点とし近傍を辺でつなげばある種のグラフとみなせる / 「グラフ信号処理の基礎と応用: ネットワーク上データのフーリエ変換 ~ 」"
  • グラフデータの分析と DSOC の取り組みを俯瞰する / Overview of graph data analysis and DSOC initiatives

    sh19910711
    sh19910711 2024/05/09
    "GNN: skipgramの作り方、何を再構成するか、どの空間で畳み込むのかなどで個性 / スポーツのレーティングを転用した企業・業界ごとの特性の把握 + 企業がどの程度競合しているか + 転職ネットワークの埋め込みを活用" 2020
  • QiitaのGNNタグ付けレコメンドにテキスト情報を追加してみる - Qiita

    前身となった記事 2つを掛け合わせたような記事です. タグ同士のリンク情報に加えて,記事内容をベクトル化したものを加えることで,さらに良い推論結果が出せるのではないかということで実践してみることにしました.Heterogeneous Graphをカスタムデータに使ってみたいという方におすすめです. 以下の流れで実装を進めていきます. データセットの用意 テキストデータをベクトル化 グラフデータを用意する 学習 評価 実装のnotebookはgithubに挙げてますので,記載していない細かい部分が気になる方はそちらを参照してください.(あまり精査してませんが) https://github.com/taguch1s/qiita-tag-recommend/tree/main いろいろ細かい部分はスルーしてとりあえず実装までこぎつけた感じなので,気になる部分がありましたらご教授いただけますと幸

    QiitaのGNNタグ付けレコメンドにテキスト情報を追加してみる - Qiita
    sh19910711
    sh19910711 2024/05/01
    "タグ同士のリンク情報に加えて,記事内容をベクトル化したものを加える / 内容とタイトルのテキストデータを結合してdoc2vecで学習 / タグのテキストデータをグラフで利用できる形に変換 + pytorch-geometricのtutorial を参考"
  • グラフニューラルネットワーク(GNN; Graph Neural Network)入門 - あつまれ統計の森

    前提知識 Transformerとグラフニューラルネットワーク 下記で詳しく取り扱いました。当記事は下記の副読的な内容になるように取りまとめました。 「Transformer=グラフニューラルネットワーク+ネットワーク分析」と大まかに解釈できるので、当記事ではグラフニューラルネットワークについて詳しく取り扱います。 集合と要素 グラフ理論では基的に数ⅠAの「集合」で取り扱われる内容を元に立式されます。当項では「集合」の基的な式表記の確認を行います。たとえばサイコロの出目の$1$〜$6$の集合を$X$とおくとき$X$は下記のように定義できます。 $$ \large \begin{align} X = \{ 1, 2, 3, 4, 5, 6 \} \end{align} $$ このとき$X$の要素を$x$とおくと、$x \in X$のように表すことができます。$x \in X$は$x$が$

    グラフニューラルネットワーク(GNN; Graph Neural Network)入門 - あつまれ統計の森
    sh19910711
    sh19910711 2024/04/28
    "Transformerを理解するにあたってはGNNを理解しておくことで直感的な理解が可能 / GNNの数式表記に関しては様々なものがありますが、MPNN(Message Passing Neural Network)の定義を元に考えると理解しやすい" 2023
  • GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ - 機械学習とかコンピュータビジョンとか

    はじめに GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ.Generative flowを使ってmolecular graphを生成する初めての試みとのこと. GraphNVP Generative Flowの一般的な話は何度か記事にしているのでここでは割愛. 今回は,molecular graphをgenerative flowを使って生成するのが目的.ここではグラフの生成を,ノードの隣接関係の記述とノードの表現(ラベル)の二つに分けて考える. 定義として,グラフをとし,をそれぞれ,adjacency tensorとfeature matrixとする.ただし,隣接関係の種類を,ノードのラベルの種類をとした.グラフが与えられた時にとなるようなモデルを作る.今回はモデルとしてGenerati

    GraphNVP: An Invertible Flow Model for Generating Molecular Graphsを読んだのでメモ - 機械学習とかコンピュータビジョンとか
    sh19910711
    sh19910711 2024/04/26
    "GraphNVP: molecular graphをgenerative flowを使って生成 + グラフGは離散的に表現 + 上で議論したモデルは連続な分布 + ギャップを埋めるためuniform noiseを加える (dequantization) " arXiv:1905.11600 2019
  • 『グラフニューラルネットワーク』を上梓しました - ジョイジョイジョイ

    グラフニューラルネットワーク (機械学習プロフェッショナルシリーズ) 作者:佐藤 竜馬講談社Amazon 講談社より『グラフニューラルネットワーク(機械学習プロフェッショナルシリーズ)』を上梓しました。 グラフニューラルネットワークはグラフデータのためのニューラルネットワークです。化合物やソーシャルネットワークのようなグラフデータの解析に使うことができます。また後で述べるように、テキストも画像もグラフなのでテキストや画像の分析にも使えますし、それらを組み合わせたマルチモーダルなデータにも適用できます。要は何にでも使うことができます。この汎用性がグラフニューラルネットワークの大きな強みです。 稿ではグラフニューラルネットワークを学ぶモチベーションと、書でこだわったポイントをご紹介します。 グラフニューラルネットワークは何にでも使える 付加情報をグラフとして表現できる グラフニューラルネッ

    『グラフニューラルネットワーク』を上梓しました - ジョイジョイジョイ
    sh19910711
    sh19910711 2024/04/26
    "転導学習 (transductive learning) の訳にはこだわり / 既知の具体的事例を「転」じて、未知の具体的事例を「導」く / 既存の日本語の文献ではトランスダクティブ学習と訳 + トランスダクティブの意味を初見で取るのは不可能"
  • PAKDD2023報告 - Qiita

    はじめに 2023年5月25日(木)から5月28日(日)にかけてPAKDD2023大阪で開催されました。PAKDDは、データマイニングを主とした国際会議です。この記事では、個人的に注目した発表についてポイントを整理し、読んでいただいた方に雰囲気を掴んでいただくことを目指します。 PAKDD2023 https://pakdd2023.org/ プログラム https://pakdd2023.org/program/ 会議の様子(同僚執筆のQiita記事) 国際会議PAKDD2023に聴講参加してきました チュートリアル Moving Beyond Traditional Anomaly Detection 要約:2022年くらいまでの異常検知技術を整理したチュートリアル ポイント: Shallowモデル(kNN、LOF、ヒストグラムベース、PCA、iForest)とDeepモデル(AE、

    PAKDD2023報告 - Qiita
    sh19910711
    sh19910711 2024/04/24
    "PAKDD: データマイニングを主とした国際会議 / Wang: グラフで情報を効率的に捉えるために、情報の構造を階層的、周期的などと分類 + 適切な潜在空間(超球やユークリッド空間)を与えることで、性能を向上" 2023
  • PyTorch Geometricのデータセットの自作するための簡単なまとめ - Qiita

    PyGはグラフの機械学習に有用だが、データセットの自作が最初は難しかったので最低限必要な知識を記しておく。 InMemoryDataset CPUメモリに収まるデータセットを構成できる便利なクラス。 概観 最初にインスタンスを生成すると、processメソッドが呼び出されてデータセットが処理される。 torch.save()でデータがdata.ptに保存され、次回以降高速に読み込める。 最低限知っておけばよいメソッド raw_file_names 処理前の生のデータのファイルがあればここに書いておく。 processed_file_names 処理されたデータが、__init__で渡したディレクトリの下にこのファイル名で保存される。 process グラフのノード, エッジ, 重み, 特徴量の設定などを行う。基的にtorch_geometric.data.Dataクラスでグラフを表現し、

    PyTorch Geometricのデータセットの自作するための簡単なまとめ - Qiita
    sh19910711
    sh19910711 2024/04/24
    "PyG: グラフの機械学習に有用 + データセットの自作が最初は難しかった / InMemoryDataset: CPUメモリに収まるデータセットを構成 / インスタンスを生成すると、processメソッドが呼び出されてデータセットが処理" 2023
  • 確率モデルを使ったグラフクラスタリング

    [DL輪読会]Understanding Black-box Predictions via Influence Functions Deep Learning JP

    確率モデルを使ったグラフクラスタリング
    sh19910711
    sh19910711 2024/04/23
    "ネットワーク構造を知りたいからクラスタリングを行うのにネットワーク構造を仮定するのは矛盾 / 確率モデル: リンクの生成モデルを考え、モデル学習を通じてクラスタリング + クラスタの構造は仮定しない" 2013
  • 【論文紹介】E(n) Equivariant Graph Neural Networks - Pseudo Theory of Everything

    対称性が課された機械学習の理論に興味があり、なんとなく探していたところ、最近出た論文に読みやすそうなものがあったので読んでみました。次の論文を紹介したいと思います。 arxiv.org イントロダクション この論文では、グラフニューラルネットワーク(GNN)に \(E(n)\) 変換のもとで同変(equivariant)性を課したモデルを構築しています。 \(E(n)\) は \(n\) 次元ユークリッド空間での等長変換群であり、回転、並進、鏡映、置換からなりますが、今回の論文では基的に回転と並進に着目しているように思えます。このような変換を考えることのモチベーションとしてはData Augmentationなどがあるようで、著者たちの過去の関連論文では arxiv.org などがあります。後に紹介しますが、グラフニューラルネットワークに対称性を課した研究は、点群(point cloud

    【論文紹介】E(n) Equivariant Graph Neural Networks - Pseudo Theory of Everything
    sh19910711
    sh19910711 2024/04/22
    "n次元ユークリッド空間での等長変換群 + モチベーションとしてはData Augmentationなど / 従来のグラフニューラルネットワークで使われるノードの特徴ベクトルhの他に実際のノードの座標であるxを導入" arXiv:2102.09844 2021
  • 論文解説: P-Companion: A Principled Framework for Diversified Complementary Product Recommendation - Qiita

    論文解説: P-Companion: A Principled Framework for Diversified Complementary Product RecommendationMachineLearningDNNRecommendation論文読みGNN はじめに P-Companion: A Principled Framework for Diversified Complementary Product Recommendation というAmazonがCIKM2020に投稿した論文について解説します。 論文を選んだ動機 E-Commerceサイトの推薦では、ユーザーが見ている商品詳細ページに対して、以下2種類の商品を推薦することが多いです。 substitute: 現在見ている商品と代替関係にある商品 complementary: 現在見ている商品と合わせて買われるよう

    論文解説: P-Companion: A Principled Framework for Diversified Complementary Product Recommendation - Qiita
    sh19910711
    sh19910711 2024/04/21
    "「co-purchase(一緒に買われる商品)が、常に補完商品になる」という仮定が成り立たないことを示し / Product2Vec: GNNで商品情報から商品ベクトルを作成 + ログの少ない商品に対する推薦も可能に" doi:10.1145/3340531.3412732
  • 【論文紹介】 Node2Vecでネットワークのベクトル埋め込みを学習する。 - Qiita

    卒論のためにNode2Vecの論文を読んだので、この手法でネットワークの構造を学習する方法について解説します。数式を追わなくてもある程度理解できるようになっていると思います。 参考元 元論文: node2vec: Scalable Feature Learning for Networks PyTorch GeometricのNode2Vecモデル: torch_geometric.nn.models.Node2Vec 再現実装の際にPyTorch Geometric(PyG)のモデルを用いたので、論文に明記されていない学習方法などはこちらを参考にしました。 Node2Vecとは Node2Vecは、 ランダムウォークによってグラフの特徴が乗った系列を生成する 生成したウォークの系列をWord2VecのSkip-Gramモデルの入力とし、目的関数を最適化する という手順でグラフの分散表現を

    【論文紹介】 Node2Vecでネットワークのベクトル埋め込みを学習する。 - Qiita
    sh19910711
    sh19910711 2024/04/20
    "参考元 PyTorch GeometricのNode2Vecモデル / Node2Vec: 半教師あり学習によって計算速度と精度を両立 / Negative Samplingの論文やNCE(Noise Contrastive Estimation)などについて調べてみると良い" 2023
  • 【KDD2020 Workshop採択論文紹介】GCNで時系列予測!? - Qiita

    明示的にグラフ構造でないデータに対してもGraph Convolution Network(GCN)が使える!? ドコモの久保田です。この記事では、データマイニングの国際会議であるKDD2020で開催されたThe Second International Workshop on Deep Learning on Graphs: Methods and Applications (DLG-KDD’20)に採択された私たちの論文"Time-aware GCN: Representation Learning for Mobile App Usage Time-series Data"を紹介します。論文はKDDのリンクのページからダウンロードできます。 KDD2020の投稿傾向 KDD2020のOpening1でResearch Trackのトピックごとの投稿論文数が報告されていましたが、上位2

    【KDD2020 Workshop採択論文紹介】GCNで時系列予測!? - Qiita
    sh19910711
    sh19910711 2024/04/18
    "Time-aware GCN: 時系列データをグラフデータとして捉える / アプリ間の利用時間間隔がΔt_thであれば、アプリ間にエッジを張る / 良い表現を獲得できたかを、次のアプリを予測するタスクとして定義" KDD2020
  • 【論文読み】画像をグラフ構造として特徴抽出するVisionGNN - Qiita

    以下の論文の内容をまとめた。 Vision GNN: An Image is Worth Graph of Nodes 2022/06 https://arxiv.org/abs/2206.00272 Kai Han, Yunhe Wang, Jianyuan Guo, Yehui Tang, Enhua Wu パッチ化した画像でグラフを構築し、グラフニューラルネットワークで特徴抽出、画像分類や物体検出タスクに利用する。TransformerやMLPを使った画像処理の研究とコンセプトは似ている。 まとめ 前提/課題 CNN, transformer, MLP, 等を利用してコンピュータビジョンモデルが改善されている 画像中の物体は通常、形状が不規則で四角形ではないため、ResNetやViTなどの従来のネットワークで一般的に使われているグリッドやシーケンス構造は、冗長で柔軟性がなく、処理しに

    【論文読み】画像をグラフ構造として特徴抽出するVisionGNN - Qiita
    sh19910711
    sh19910711 2024/04/17
    "VisionGNN: 画像をノードと見なせるいくつかのパッチに分割し、近傍のパッチを連結してグラフを構成 + GNNで特徴抽出、画像分類や物体検出 / 深層部では中心ノードの近傍はより意味的" arXiv:2206.00272 2022
  • Graph U-Nets

    sh19910711
    sh19910711 2024/04/15
    "セグメンテーションで定番のU-Netをグラフでも適用できるようにしたい / Graph U-Net: CNNのpooling/unpoolingをグラフ上で定義 + GCNと組み合わせ / U-Net: downsamplingの途中の各階層で特徴マップをupsampling側に渡す" arXiv:1905.05178 2019
  • Improving "People You May Know" on Directed Social Graph

    machine learning graph pitch #1 https://machine-learning-pitch.connpass.com/event/130083/ で話した資料です。 有向グラフ上での Graph Embeddings と、それを活用したつながり推薦について話しました。

    Improving "People You May Know" on Directed Social Graph
    sh19910711
    sh19910711 2024/04/15
    "「もしかして知り合いかも」を表示したい / 「双方向のつながり」「一方通行のつながり」を両方一つのグラフ上で表現 + LightGBM / 「単方向のエッジを活用することで質もあがる」という結果は得られなかった" 2019
  • [DL輪読会]GraphSeq2Seq: Graph-Sequence-to-Sequence for Neural Machine Translation

    [DL輪読会]GraphSeq2Seq: Graph-Sequence-to-Sequence for Neural Machine Translation

    [DL輪読会]GraphSeq2Seq: Graph-Sequence-to-Sequence for Neural Machine Translation
    sh19910711
    sh19910711 2024/04/09
    "GraphSeq2Seq: 単語間の依存関係グラフ構造をencodeした上でSeq2Seqモデルで翻訳 + spaCyを用いて英文の依存関係を解析 / Graph state LSTMを用いて各ノードの隠れ状態を再帰的に計算" 2018
  • Graph Neural Networkの処理と効果を理解する: How Powerful are Graph Neural Networks?

    Graph Neural Networkはどんな処理を行っていて、それによりどんな識別が可能になるのか?という点を検証した論文”How Powerful are Graph Neural Networks?”があったため、読んでみました。論文はICLR 2019にOralでAcceptされています。 論文の主張をまとめると、以下のようになります。 Graph Neural Networkの処理は3段階に分けられる。隣接ノードの集約(AGGREGATE)、集約結果による更新(COMBINE)、そしてグラフ全体の性質を得るためのノード特徴の集約(READOUT)の3つである。グラフの類似性を比較するために、ノードの接続種別ごとにラベルを振り、その個数を数え上げ比較する手法がある(Weisfeiler-Lehman Graph Isomorphism Test)。この文脈においては、同じ接続

    Graph Neural Networkの処理と効果を理解する: How Powerful are Graph Neural Networks?
    sh19910711
    sh19910711 2024/04/09
    "各所において、単射性を崩さないよう気を払う / MEANやMAXを取ってしまうと、接続数が異なるがMEAN/MAXが同じになるケースが区別できない(SUMなら接続数分増加するのでOK)" arXiv:1810.00826 2019
  • 論文メモ:Representation Learning on Graphs with Jumping Knowledge Networks - Qiita

    論文メモ:Representation Learning on Graphs with Jumping Knowledge Networksグラフ深層学習GNNJKNet この論文を読んだ理由 この論文の手法を取り入れた論文を数多く見かけたため. 読んだところ 全体 解いている課題 GNNにおける集約において,近傍ノードがグラフ構造に強く依存してしまっている問題.具体的には,中心のノードは近傍が多く,端のノードは近傍が少ない. ノードごとに適当的に近傍の範囲を定めたい. 提案手法のアプローチ 各層の出力を集めてきた後,Concat/Max-pooling/LSTM-attention 演算を行う. Concat...この場合は適応的ではない.Concatのあと線形層に通すことで全てのホップ数を考慮することが出来る. Max-pooling...各層の出力のうち,一番情報が多い要素(値が大き

    論文メモ:Representation Learning on Graphs with Jumping Knowledge Networks - Qiita
    sh19910711
    sh19910711 2024/04/07
    "GNN: 集約において,近傍ノードがグラフ構造に強く依存してしまっている + 中心のノードは近傍が多く,端のノードは近傍が少ない / JumpingKnowledge: この論文の手法を取り入れた論文を数多く見かけた" arXiv:1806.03536