和歌山大学の風間です.
> 2026/04/14 10:00、'Chiaki Miura' via Science of Science Network <
science-o...@googlegroups.com>のメール:
> この研究の面白さ・すごさ
> 引用ネットワーク上のランダムウォークを「文」、論文を「単語」とみなすことで、研究系譜を一種の「言語」として埋め込む着想が鮮やか。破壊的な論文ほど、その研究が築いた「未来の語彙」が「過去の語彙」から意味的に離れるという直観は明快で、CD indexが構造的に検出不可能だった同時発見——科学史における最も劇的な現象の一つ——に初めて計量的な光を当てた点が画期的。
一応,グラフにおけるノードの埋め込み表現(特徴ベクトル)を求めるGraph Embeddingの初期の研究として,グラフをランダムウォークでサンプリングしてからskip-gramモデルを適用するNode2Vecなどはありました.
Aditya Grover and Jure Leskovec: node2vec: Scalable Feature Learning for Networks, KDD'16, pp.855-864, 2016.
実際,この論文でも,次のように書かれているようです.
This approach is equivalent to the node2vec model (40) (or the word2vec model) applied to citation trajectories treated as “sentences” (41) but with the window constrained to a single direction.
ただ,一般的なグラフに有向性は存在しても,時間のような全体的な方向性はありません.
そこで,引用ネットワーク固有の特徴に注目して,未来と過去に分けるという発想は確かにすごいと思いました.私が知っている限りでは,「著名な」類似研究はないような気がします.
---
風間 一洋 (
kaz...@ingrid.org)
和歌山大学システム工学部