利用邻接矩阵表示节点i和节点j之间的连接,1表示连通,0表示不连通。
利用特征向量表示中心性意味着节点连接的节点越多,节点的中心值越高。
特征向量本身就是应用变换后的向量,结果向量与原向量的方向相同或完全相反。
我真的看不出这两种属性之间的关系。
发布于 2017-11-25 23:42:49
让我们将顶点的中心性定义为与其邻居中心性之和成正比的中心性。如果你把它写出来,并把邻接矩阵合并起来,特征值的倒数就会立即以比例常数的形式出现。特征向量的相关性是通过它来定义中心性:顶点的分数是第一个特征向量上的对应条目。我们必须选择第一个特征向量,因为邻接矩阵是非负的,而且由于Perron定理(详见这些讲座讲稿。),我们也希望中心点是负的。那么,如果我们的中心与转移矩阵的特征向量有内在的联系,我们如何找到它们呢?通过使用幂法,这依赖于它们的定点性质!如果你变换一个特征向量,你就得到了一个共线向量(你想要关联的性质),那么为什么不用随机估计来做这件事,直到收敛,并随着我们的前进而正常化呢?此外,如果我们将问题稍加改写为使用随机矩阵,则分数可直接解释为在相应顶点处终止的随机游动的概率!
如果你真的好奇的话,有一本专著:谷歌的PageRank及其他产品。欢迎来到现场。
https://datascience.stackexchange.com/questions/25108
复制相似问题