首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

美化clusterProfiler富集分析结果:enrichplotcnetplot

写在开头 相信大家对富集分析都很熟悉,但是对富集分析结果美化却永无止境。 今天我们介绍Y叔系列enrichplotcnetplot函数。...除了标准富集分析结果,cnetplot() 函数也支持基因集富集分析 (GSEA) 结果展示,并仅显示核心富集基因。...]edo <- enrichDGN(de);head(edo)​ cnetplot函数小试牛刀,先画barplot看看 barplot,此函数只能对接enrichResult对象,所以GSEA结果它是画不出来...,barplot用于展示最重要或者你感兴趣条目的富集结果,比如富集到基因个数、条目名字,P值等信息。...参数: x:包含富集分析结果 R 对象。 foldChange:基因表达量变化值。 colorEdge:是否根据富集术语对边进行着色。 category:类别节点颜色。

93610

R语言机器学习caret-09:决策树小例子

前面已经铺垫了超多caret基础知识,所以下面就是具体实战演示了。...今天给大家演示下caret决策树例子,但其实并不是很好用,还不如之前介绍直接使用rpart,或者tidymodels,mlr3。...加载数据和R library(caret) library(modeldata) str(penguins) ## tibble [344 × 7] (S3: tbl_df/tbl/data.frame...预处理 做个简单预处理,连续性变量中心化,分类变量设置哑变量。预处理这部分不如tidymodels好用。...建立模型 caret是可以调用rpart实现决策树,但是只支持一个超参数cp,感觉不如之前介绍好用: 以决策树为例演示超参数调优基本方法(上) 以决策树为例演示超参数调优基本方法(下) # 设定种子数

20920
您找到你想要的搜索结果了吗?
是的
没有找到

全代码 | 随机森林在回归分析经典应用

我们尝试利用机器学习随机森林算法预测下,是否存在某些指标或指标组合可以预测阅读后关注人数。 数据格式和读入数据 数据集包括1588篇文章9个统计指标。...randomForest # 查看源码 # randomForest:::randomForest.default 加载之后,直接分析一下,看到结果再调参。...(实际上面的输出也已经有体现了),8个重要变量,0个可能重要变量 (tentative variable, 重要性得分与最好影子变量得分无统计差异),1个不重要变量。...文字能说清用文字、图片能展示用、描述不清用公式、公式还不清楚写个简单代码,一步步理清各个环节和概念。 再到成熟代码应用、模型调参、模型比较、模型评估,学习整个机器学习需要用到知识和技能。...这也太赞了吧 基于Caret和RandomForest进行随机森林分析一般步骤 (1) Caret模型训练和调参更多参数解读(2) 基于Caret进行随机森林随机调参4种方式 机器学习第17篇 -

44130

ubuntusnap安装、更新删除与简单使用

但是由此带来问题就是它占用更多磁盘空间 Snap安装扩展名是.snap,类似于一个容器,它包含一个应用程序需要用到所有文件和库(snap包包含一个私有的root文件系统,里面包含了依赖软件...现在支持snap应用并不多,snap软件一般安装在/snap目录下 一些常用命令 其实使用snap简单,下面我来介绍一下一些常用命令 sudo snap list 列出已经安装snap...snap remove 删除一个snap 简单使用 下面我就安装一个编辑器来演示怎么安装删除一个软件 首先我想安装hello-world 那么先找一下有没有hello-world...,之后再次安装这个时候就报了一个错误 error: cannot install "douban-fm": snap "core" has changes in progress 解决方式很简单...douban-fm" snap 6 Doing 2017-11-15T03:34:27Z - Install "douban-fm" snap 没错install douban-fm还在doing

10.1K21

机器学习-R-特征选择

本文使用Boruta,它使用随机森林分类算法,测量每个特征重要行(z score)。 2....使用caret 使用递归特征消除法,rfe参数 x,预测变量矩阵或数据框 y,输出结果向量(数值型或因子型) sizes,用于测试特定子集大小整型向量 rfeControl,用于指定预测模型和方法一系列选项...Caret R提供findCorrelation函数,分析特征关联矩阵,移除冗余特征 [python] view plain copy set.seed(7) # load the library...一些模型,诸如决策树,内建有特征重要性获取机制。另一些模型,每个特征重要性利用ROC曲线分析获取。...随机森林算法用于每一轮迭代评估模型方法。该算法用于探索所有可能特征子集。从图中可以看出当使用4个特征时即可获取与最高性能相差无几结果

2K80

机器学习-R-特征选择

本文使用Boruta,它使用随机森林分类算法,测量每个特征重要行(z score)。 2....使用caret 使用递归特征消除法,rfe参数 x,预测变量矩阵或数据框 y,输出结果向量(数值型或因子型) sizes,用于测试特定子集大小整型向量 rfeControl,用于指定预测模型和方法一系列选项...Caret R提供findCorrelation函数,分析特征关联矩阵,移除冗余特征 [python] view plain copy set.seed(7) # load the library...一些模型,诸如决策树,内建有特征重要性获取机制。另一些模型,每个特征重要性利用ROC曲线分析获取。...随机森林算法用于每一轮迭代评估模型方法。该算法用于探索所有可能特征子集。从图中可以看出当使用4个特征时即可获取与最高性能相差无几结果

1.5K50

ML Mastery 博客文章翻译(二)20220116 更新

使用 Caret R 比较模型并选择最佳方案 在 R 中比较机器学习算法 R 凸优化 使用可视化更好地理解你在 R 数据(今天你可以使用 10 个秘籍) 将 Caret R 用于数据可视化...使用描述性统计更好地理解你 R 数据 如何用 R 评估机器学习算法 使用 caret 选择特征 在 R 中保存并最终确定您机器学习模型 如何在 R 开始机器学习(一个周末内获得结果) 如何使用...Caret 估计 R 模型准确率 如何在 R 入门机器学习算法 如何在 R 中加载机器学习数据 如何将 R 用于机器学习 R 线性分类 R 线性回归 R 机器学习数据集(你现在可以使用...10 个数据集) 如何在 R 构建机器学习算法集成 R 机器学习评估指标 R 第一个机器学习逐步项目 R 机器学习项目模板 R 决策树非线性分类 R 非线性分类 R 决策树非线性回归...R 机器学习算法(随机森林案例研究) 使用 Caret 调整机器学习模型 将 R 用于机器学习 什么是 R Machine Learning Mastery Weka 教程 Weka 机器学习迷你课程

4.4K30

使用R语言进行机器学习特征选择①

特征选择是实用机器学习重要一步,一般数据集都带有太多特征用于模型构建,如何找出有用特征是值得关注内容。...使用caret,使用递归特征消除法,rfe参数:x,预测变量矩阵或数据框,y,输出结果向量(数值型或因子型),sizes,用于测试特定子集大小整型向量,rfeControl,用于指定预测模型和方法一系列选项...set.seed(1234) library(mlbench) library(caret) data(PimaIndiansDiabetes) Matrix <- PimaIndiansDiabetes...一些模型,诸如决策树,内建有特征重要性获取机制。另一些模型,每个特征重要性利用ROC曲线分析获取。...随机森林算法用于每一轮迭代评估模型方法。该算法用于探索所有可能特征子集。从图中可以看出当使用5个特征时即可获取与最高性能相差无几结果

3.4K40

R语言逻辑回归、决策树、随机森林、神经网络预测患者心脏病数据混淆矩阵可视化

Restecg:静息心电图结果,取值0:正常,取值1:ST-T波异常,取值2:根据Estes标准显示可能或明确左室肥厚。 Thalach:达到最高心率(每分钟心跳数)。...此外,患者位年龄为56岁,最年轻和最年长患者分别为29岁和77岁。可以从图表中观察到,患有心脏病的人位年龄小于健康人。此外,患心脏病患者分布略微倾斜。...它以四个不同指标来总结模型对样本分类结果:真阳性(True Positive, TP)、真阴性(True Negative, TN)、假阳性(False Positive, FP)和假阴性(False...语言实现贝叶斯分位数回归、lasso和自适应lasso贝叶斯分位数回归分析 Python用PyMC3实现贝叶斯线性回归模型 R语言用WinBUGS 软件对学术能力测验建立层次(分层)贝叶斯模型 R语言Gibbs抽样贝叶斯简单线性回归仿真分析...采样算法自适应贝叶斯估计与可视化 R语言随机搜索变量选择SSVS估计贝叶斯向量自回归(BVAR)模型 WinBUGS对多元随机波动率模型:贝叶斯估计与模型比较 R语言实现MCMCMetropolis–Hastings

49730

【R语言】用gbm来提升决策树能力

它用不同权重将基学习器进行线性组合,使表现优秀学习器得到重用。在 R语言中gbm 就是用来实现一般提升方法扩展。根据基学习器、损失函数和优化方法不同,提升方法也有各种不同形式。...在每一步训练后,增加错误学习样本权重,这使得某些样本重要性凸显出来,在进行了N次迭代后,将会得到N个简单学习器。最后将它们组合起来得到一个最终模型。...在gbm,采用决策树作为基学习器,重要参数设置如下: 损失函数形式(distribution) 迭代次数(n.trees) 学习速率(shrinkage) 再抽样比率(bag.fraction...gbm作者经验法则是设置shrinkage参数在0.01-0.001之间,而n.trees参数在3000-10000之间。 下面我们用mlbench数据集来看一下gbm使用。...# 用caret观察预测精度library(caret)data <- PimaIndiansDiabetes2fitControl <- trainControl(method = "cv", number

3.9K41

值得思考,机器学习模型做出决策是你想要吗?

在很多决策应用,分类模型代表着一个“不成熟”决定,它组合了预测模型和决策制定,但剥夺了决策者对错误决定带来损失控制权 (如随机森林中服从大多数原则,51棵树预测结果为患病49棵树预测结果为正常与...然后,他们必须以某种不明确方式构造分类器,以弥补训练集中样本组成偏差。很简单,一个基于发病率为1/2情况训练模型将不能应用于发病率为1/1000新数据预测。...文字能说清用文字、图片能展示用、描述不清用公式、公式还不清楚写个简单代码,一步步理清各个环节和概念。 再到成熟代码应用、模型调参、模型比较、模型评估,学习整个机器学习需要用到知识和技能。...一图感受各种机器学习算法 机器学习算法 - 随机森林之决策树初探(1) 机器学习算法-随机森林之决策树R 代码从头暴力实现(2) 机器学习算法-随机森林之决策树R 代码从头暴力实现(3) 机器学习算法-...这也太赞了吧 基于Caret和RandomForest进行随机森林分析一般步骤 (1) Caret模型训练和调参更多参数解读(2) 基于Caret进行随机森林随机调参4种方式 机器学习第17篇 -

41020

一套完整基于随机森林机器学习流程(特征选择、交叉验证、模型评估))

这样更方便提取每个变量,且易于把模型x,y放到一个矩阵。 样本表和表达表样本顺序对齐一致也是需要确保一个操作。...randomForest # 查看源码 # randomForest:::randomForest.default 加载之后,直接分析一下,看到结果再调参。...文字能说清用文字、图片能展示用、描述不清用公式、公式还不清楚写个简单代码,一步步理清各个环节和概念。 再到成熟代码应用、模型调参、模型比较、模型评估,学习整个机器学习需要用到知识和技能。...一图感受各种机器学习算法 机器学习算法 - 随机森林之决策树初探(1) 机器学习算法-随机森林之决策树R 代码从头暴力实现(2) 机器学习算法-随机森林之决策树R 代码从头暴力实现(3) 机器学习算法-...这也太赞了吧 基于Caret和RandomForest进行随机森林分析一般步骤 (1) Caret模型训练和调参更多参数解读(2) 基于Caret进行随机森林随机调参4种方式 机器学习第17篇 -

7.8K30

数据降维:特征值分解和奇异值分解实战分析

0, 0]]) #转化为我们想要A,将特征定为 axis=0 A = A.T A array([[2, 1, 0], [4, 3, 0]]) 调用 Numpy奇异值分解API: #奇异值分解...np.linalg.svd(A) 得到结果为三个数组 U*Sigma*V转置 (array([[-0.40455358, -0.9145143 ], [-0.9145143 , 0.40455358...简单总结下,重点介绍了奇异值分解法压缩矩阵原理,和一个实际例子,最后实战介绍了PCA实际应用。...前面介绍了决策树原理和例子解析,明天,基于次,再介绍一种经典机器学习集成算法,XGBoost,它可是中国科学家发明。...14 机器学习:对决策树剪枝 15 机器学习决策树:sklearn分类和回归 16 机器学习决策树:提炼出分类器算法 17 机器学习:说说贝叶斯分类 18 朴素贝叶斯分类器:例子解释 19 朴素贝叶斯分类

1.5K40

分类I-树、延迟和概率笔记

准备训练和测试数据集 一上来就发现,数据集找不到,搜索一番,终于在另外一个找到了数据集。...CP是成本复杂度参数.决策树算法不足是容易产生偏差和过度适应问题,条件推理树可以克服偏差,过度适应可以借助随机森林方法或树修剪来解决。...同样对非独立变量来实现对数据递归划分处理。不同在于,条件推理树选择分裂变量依据是显著性测量结果,而不是信息最大化方法,rpart里使用了基尼系数,这个不是表征贫富差距。...字符类型数据要先处理成整型,k=3分配到最近3个簇。kknn可以提供带权重k邻近算法、回归和聚类。...朴素由叶斯算法假设特征变量都是条件独立,优势相对简单,应用直接,适合训练数据集规模树比较小,可能存在缺失或者数据噪音情况。不足在于上面的条件相互独立和同等重要,在实际世界很难实现。

59640

异常值检测

异常值 异常值(outlier)是指一组测定值与平均值偏差超过两倍标准差测定值,与平均值偏差超过三倍标准差测定值,称为高度异常异常值。...异常值分析 异常值分析是检验数据是否有录入错误以及含有不合常理数据; 异常值是指样本个别值,其数据明显偏离其余观测值。异常值也称为离群点,异常值分析也称为离群点分析。...含量差值,就是这个数减去上面的数,画下图来看看是否在0附近 导入 import numpy as np import matplotlib as mpl import pandas as pd import...abnormal 预测正确数据 采用集成决策树方法 plt.figure(figsize=(11, 5), facecolor='w') plt.subplot(131) plt.plot(x,..., ls=':', color='#404040') plt.subplot(132) t = np.arange(N) plt.plot(t, x, 'r-', lw=1, label='原始数据'

85830

Spark学习之基于MLlib机器学习

算法 特征提取 TF-IDF(词频——逆文档频率)使用用来从文本文档(例如网页)中生成特向量简单方法。...MLlib用两个算法来计算TF-IDF:Hashing和IDF,都在mllib.feature内。 缩放,大多数要考虑特征向量各元素幅值,并且在特征缩放调整为平等对待时表现最好。...监督学习是指算法尝试使用有标签训练数据根据对象特征预测结果。 在分类,预测出变量是离散。 在回归中,预测出变量是连续。...MLlib包含许多分类与回归算法:如简单线性算法以及决策树和森林算法。 聚类 聚类算法是一种无监督学习任务,用于将对象分到具有高度相似性聚类。...要计算这种映射,我们要构建出正规化相关矩阵,并使用这个矩阵奇异向量和奇异值。 与最大一部分奇异值相对应奇异向量可以用来重建原始数据主要成分。

1.3K50

R语言机器学习caret-08:过滤法

之前已经给大家介绍了临床预测模型和机器学习特征选择(变量选择)常见方法分类: 机器学习特征选择(变量筛选)方法简介 今天就给大家演示过滤法在caret实现。...举个简单例子,假如你结果变量是二分类,自变量是数值型,那么对于每一个自变量,我们都可以以结果变量为分组变量,对自变量做方差分析,如果一个自变量在两个类别(也就是两个组别)没有统计学差异,那这个变量就可以删掉了...类似的还有t检验、卡方检验、等等,这些方法选择在这里主要是根据预测变量和结果变量类型。...除此之外,还有其他一些过滤法,这些都在之前推文中有介绍:机器学习特征选择(变量筛选)方法简介 在caret通过sbf函数实现交叉验证过滤法。...以上就是caret过滤法简单演示,更多使用方法大家自己探索,但是说实话不是很好用......

20420

样本分布不平衡,机器学习准确率高又有什么用?

一个原因应该是样本不平衡导致。DLBCL组样品数目约为FL组3倍。不通过建模而只是盲猜结果为DLBCL即可获得75%正确率。而FL组预测准确率却很低。...不平衡样本模型构建中影响主要体现在2个地方: 随机采样构建决策树时会有较大概率只拿到了样品多分类,这些树将没有能力预测样品少分类,从而构成无意义决策树。...在决策树每个分子节点所做决策会倾向于整体分类纯度,因此样品少分类对结果贡献和影响少。...,它们相当于把决策阈值推向了ROC曲线”最优位置” (这在Boruta特征变量筛选部分有讲)。...基于模拟数据样本不平衡处理 这里先通过一套模拟数据熟悉下处理流程,再应用于真实数据。采用carettwoClassSim函数生成包含20个有意义变量和10个噪音变量数据集。

98910

R 梯度提升算法①

用gbm实现随机梯度提升算法 自适应提升方法AdaBoost 它是一种传统而重要Boost算法,在学习时为每一个样本赋上一个权重,初始时各样本权重一样。...在每一步训练后,增加错误学习样本权重,这使得某些样本重要性凸显出来,在进行了N次迭代后,将会得到N个简单学习器。最后将它们组合起来得到一个最终模型。...在gbm,采用决策树作为基学习器,重要参数设置如下: 损失函数形式(distribution) 迭代次数(n.trees) 学习速率(shrinkage) 再抽样比率(bag.fraction...) 决策树深度(interaction.depth) 损失函数形式容易设定,分类问题一般选择bernoulli分布,而回归问题可以选择gaussian分布。...summary(model,best.iter) # 变量边际效应 plot.gbm(model,1,best.iter) library(caret) data <- na.omit(PimaIndiansDiabetes2

55530
领券