我的问题涉及图聚类算法的应用。大多数情况下,我看到图形是通过使用数据中的节点和边来创建的。例如,假设我们有社交媒体数据:数据中的每个个体都可以表示为一个节点,而个体之间的关系可以表示为边。使用这些信息,我们可以构建一个图,然后在该图上执行图聚类算法(例如,Louvain聚类)。
有时,也可以使用点之间的距离来绘制图形。点之间的距离可以看作是边。例如,在谱聚类算法中,从数据中生成一个KNN (k近邻)图,然后对该图执行K-Means聚类算法。
我的问题是:假设我们采用著名的Iris数据,并删除响应变量(“物种”)。创建一个Iris数据的图,其中每个节点对应于一个单独的花,边对应于每个点之间的成对欧几里德距离,这有意义吗?假设这是一种逻辑和正确的方法,那么可以在这个Iris图上执行图聚类算法吗?
下面,我尝试首先使用成对欧几里德距离(在R中)创建虹膜数据的图。然后,我在结果图上执行了Louvain聚类和Infomap聚类。在那之后,我尝试创建一个虹膜数据的KNN图,并在这个KNN图上执行MST (最小生成树)聚类,以及执行Louvain聚类。
有没有人能就我的所作所为提供一个意见?这是直观的吗?它在数学上有意义吗?作为一种“作弊”的方式-虹膜数据只有3个物种。因此,如果给定的聚类算法返回明显多于3个聚类,我们知道图和/或聚类算法可能不是最佳选择。然而,在实际的应用程序中,我们无法知道数据中存在多少“真实”类。
library(igraph)
library(network)
library(reshape2)
library(mstknnclust)
library(visNetwork)
library(cluster)
/****louvain clustering done on a distance based graph - maybe this is correct****/
x <- iris[,1:4]
dist <- daisy(x,
metric = "euclidean"
)
d_mat <- as.matrix(dist)
d_long <- melt(d_mat)
colnames(d_long) <- c("from", "to", "correlation")
d_mat_long <- d_long[which(d_long$correlation > .5),]
graph <- graph_from_data_frame(d_mat_long, directed = FALSE)
nodes <- as_data_frame(graph, what = "vertices")
colnames(nodes) <- "id"
nodes$label <- nodes$id
links <- as_data_frame(graph, what = "edges")
visNetwork(nodes, links) %>% visIgraphLayout(layout = "layout_with_fr")
cluster <- cluster_louvain(graph)
nodes$cluster <- cluster$membership
nodes$color <- ifelse(nodes$cluster == 1, "red", "blue")
visNetwork(nodes, links) %>% visIgraphLayout(layout = "layout_with_fr") %>% visOptions(selectedBy = "cluster") %>% visNodes(color = "color")
/***infomap and louvain clustering done a distance based graph but with a different algorithm: I think this is wrong***/
imc <- cluster_infomap(graph)
membership(imc)
communities(imc)
plot(imc, graph)
lc <- cluster_louvain(graph, weights = NULL)
membership(lc)
communities(lc)
plot(lc, graph)
/****mst spanning algorithm on the knn graph : based on the number of clusters I think this is wrong****/
cg <- generate.complete.graph(1:nrow(x),d_mat)
##Generates kNN graph
knn <- generate.knn(cg)
plot(knn$knn.graph,
main=paste("kNN \n k=", knn$k, sep=""))
results <- mst.knn(d_mat)
igraph::V(results$network)$label.cex <- seq(0.6,0.6,length.out=2)
plot(results$network, vertex.size=8,
vertex.color=igraph::clusters(results$network)$membership,
layout=igraph::layout.fruchterman.reingold(results$network, niter=10000),
main=paste("MST-kNN \n Clustering solution \n Number of clusters=",results$cnumber,sep="" ))
/*****louvain clustering and infomap done on the knn graph - maybe this is correct****/
#louvain
lc <- cluster_louvain(knn$knn.graph, weights = NULL)
membership(lc)
communities(lc)
plot(lc, knn$knn.graph)
imc <- cluster_infomap(knn$knn.graph)
membership(imc)
communities(imc)
plot(imc, knn$knn.graph)发布于 2020-08-25 13:57:19
“在基于距离的图上完成了卢瓦恩聚类--也许这是正确的”
实际上并非如此,距离是用来绘制像中间度中心性这样的东西的。如果你感兴趣的是相似性,那么将距离转换为相似性。
https://stackoverflow.com/questions/63572229
复制相似问题