因此,我的当前代码遇到了一个小问题。我的目标是在excel表中过滤数据,并取该筛选数据的平均偏差和标准差。不用过滤数据,我可以显示平均值和标准差。我得到平均值和标准差的数值。但是,在筛选数据之后,我再次运行宏,但它显示的平均值和标准差与之前没有过滤的数据相同。我想知道我的代码有什么问题,或者我如何调整它,以便只对显示的数据进行平均偏差和标准差。
这是我的代码:
平均编码
Sub Avg()
Range("F1").Value = Application.WorksheetFunction.Average(Columns("D"))
End Sub
性病De
使用TTR计算出2天的标准差。我在excel中也做了同样的事情。
它们大体上是相同的,除了在TTR中,我收到的值:
1.00485917355762E-14
其中,excel的位置上有一个0。上述值的含义是什么?是14的幂吗?如果excel说它应该是0,为什么我会看到这个,谁是正确的?
Close TTR package stdev, n = 2 Excel stdev, n = 2
43.79979 NA NA
44.04865 0.175970594 0.175970594
44.17308 0.0879
可以使用write.table格式化输出吗?
我可以使用tab和sep = '\t'来左对齐列,并且可以使用两个选项卡sep = '\t\t'来增加列之间的间距。
理想情况下,我希望能够右对齐列,并使用'\t‘和'\t\t’提供的中间间距。使用像sep = '\t '这样的东西完全破坏了列对齐。
我必须证明从许多不同的文件中提取的大量数据,这些文件使用许多不同的表格式。将R的输出文本文件的列间距与原始pdf文档中的列间距紧密匹配将大大提高校对的速度和准确性。
# example data to write to text fil
如何计算R中的集合标准差?
下面是我的数据集的代码(因为我的数据集包含许多条目,所以我不能在这里复制粘贴它)
install.packages("Sleuth3")
library(Sleuth3)
View(ex0126)
为了求出每个组的平均偏差和标准差(即,单个组是当事方R和D),我使用下面的R代码得到了它。
library(Sleuth3)
ex0126
View(ex0126)
#Average of each group individually for party (R,D)
meanOfR <- subset(aggregate(ex0126[, 4:
我有一个5天返回数据的矩阵(数据集跳过周末)。我想用前52周的标准差创建一个新矩阵。这需要我从5天的返回数据(我称之为lrets5)中选择52个值,方法是获取当前值,然后在52周中的每一周向后跳过5个值。
我想要一个每天52周标准差的新值。
我可以使用seq()来查找要计算标准差的行,但是我还没有想出一种从lrets5中提取这些值来计算标准差的好方法。
这是我最新的尝试:
weeklysd <- matrix(nrow=(nrow(lrets5)),ncol=20) #pre allocate matrix
for (i in 2:21){ #skip the d
我有一个大型数据库,包含超过85,000个值,用于100多个不同的公司,它们被标记在100个以上的变量上。我的目标是识别与多个变量对应的描述性统计数据(均值、标准差、最小最大值和值数)。
下面是一组关于某一特定公司的信息,我称之为F公司。
Attendance Number of representatives Number of Presenters Company Audience
29 2 30 2
20 3
我有一个数据框架,看起来
z<-data.frame(a=c(seq(1990,1995,1), 1997,1998,1999,2001,2002,2003), b=seq(90,101,1))
我使用函数
rollapply(b, 3, sd, align='right')
计算标准差。
我想做的是,如果连续几年之间存在差距,函数就会中断,并开始计算标准差。
编辑:
我的示例输出应该如下所示:
enter code here a b c
1 1990 90 NA
2 19
我认为这来自R/包更新,但现在当我尝试计算包含安娜的timeseries的运行标准差时,我得到的结果是NA (当前是R版本4.0.3,TTR_0.24.2) 如何获取: TTR::runSD(x = c(NA, 1:10), n = 1, cumulative = TRUE) 要排除/忽略NA而不是返回: [1] NA NA NA NA NA NA NA NA NA NA NA 更像这样的东西: [1] NA NaN 0.7071068 1.0000000 1.2909944 1.5811388 1.8708287 2.1602469 2.4494897 2.7386128 3.0276