我是R的初学者,我在论坛上搜索了一下,没有找到这个问题的答案。我尝试在R中创建一个循环,用于计算数据帧中的两行之间是否满足某个条件。我知道这不是一种有效的方法,但这是针对班级作业的。我的问题是,我的代码创建了一个无尽的循环,而不是给我计数器输出,我不清楚如何修复它。如果有任何建议,我将不胜感激。代码如下:
counter=0
for (i in 1:nrow(dataframe))
{if (dataframe$column1[i]>dataframe$column2[i]==TRUE)
{
counter=counter+1}
}
print(counter)
我正在尝试迭代朱莉娅中的DataFrame行,以便为数据帧生成一个新列。我还没有找到一个清楚的例子来说明如何做到这一点。在R中,这种类型的东西是向量化的,但据我所知,不是所有的Julia操作都是向量化的,所以我需要遍历行。我知道我可以用索引来做这件事,但我相信一定有更好的方法。我希望能够按名称引用列值。这里我有:
test_df = DataFrame( A = [1,2,3,4,5], B = [2,3,4,5,6])
test_df["C"] = [ test_df[i,"A"] * test_df[i,"B"] for i in 1:siz
我正在使用R's stats包,并希望在all the rows of a dataframe中遍历column[x],使用函数对列中的each cell中的数据进行操作,并将结果传递给一个新列( new column中的calculated result与column[x]中的数据对齐)。
我有两个问题:
--我无法让它开始工作--在我读过的R articles中,循环似乎是不鼓励的。是否有其他方法可供选择,如果没有,是否有关于如何执行循环的示例?
我想在dataframe中遍历列,对于每一列,如果NAs的数量大于所有条目的50%,我想从dataframe中删除该列。到目前为止,我有这样的事情,但它不起作用:
for (i in names(df_r)) {
if (sum(is.na(df_r[,i]))/length(df_r) > 0.5) {
df_r <- df_r[, -i]
}
}
我更像个蟒蛇,我正在学习R,所以我可能会在这里混合语法。
我的Rcpp代码偶尔会失败(SEGFAULT等等)因为我不明白的原因。代码创建一个大型data.frame,然后通过调用R子集函数( [.data.frame),尝试从创建框架的同一方法中获取该data.frame的子集。它的一个非常简化的版本如下:
library(Rcpp)
src <- '// R function to subset data.frame - what will be called to subset
DataFrame test() {
Function subsetinR("[.data.frame");
// Make a dat
我从多个文件中删除停止字。首先,我读取每个文件并从dataframe中删除停止字。之后,我将dataframe与下一个dataframe连接起来。当我打印dataframe时,它会给出如下的输出:
0 [I, , , , , r, e, , h, , h, , h, v, e, ...
1 [D, , u, , e, v, e, n, , e, , h, e, , u, ...
2 [R, g, h, , f, r, , h, e, , e, c, r, , w, ...
3 [A, f,
实际上我找到了这个公式,但我不知道它是如何工作的。
假设p,q和r是三个点,
k=(q.y - p.y)*(r.x - q.x)-(q.x - p.x) * (r.y - q.y);
if(k==0): They are all colinear
if(k>0) : They are all clockwise
if(k<0) : They are counter clockwise
如果有人解释它是如何工作的,我会很高兴的。
我正在从CSV文件中读取一个H2OFrame:
val h2oFrame = new H2OFrame(new File(inputCsvFilePath))
如何执行相当于.filter()操作的操作(可用于SparkDataFrame或RDD)。例如,如何获得一个新的H2OFrame,其中"label“(它是列名)是>1?
我尝试了如下转换为org.apache.spark.sql.DataFrame (简化的示例):
val df = asDataFrame(h2oFrame)
val dff = df.filter(s"label > 1")
pri
我是一个R newby,想知道人们是否可以给我一点建议,关于我如何处理我拥有的一些数据。
我有一个数据框,其中包含观察到基因变化的样本列表(示例如下)
Dataframe1:
Sample Gene Alteration
1 A -1
1 B -1
1 C -1
1 D 1
2 B 1
2 E -1 ...
我还有一个数据框,其中包含我感兴趣的基因列表(示例如下)
Dataframe2:
Gene
B
D
E
我想计算dataframe2中每个基因有多少个-1改变的样
我有一个dataframe,我想对一个特定的专栏进行情感分析。
mysentiment <- get_nrc_sentiment(hud['review_body'])
但是,当我在R studio上使用
get_nrc_sentiment function I get the error "Error in get_nrc_sentiment(hud["review_body"]) :
Data must be a character vector."
我尝试使用以下方法将dataframe列转换为向量
as.vector(hud[
使用R,我如何使一个数据的列作为数据的索引?假设我从.csv文件中读取数据。其中一个列名为'Date‘,我希望使该列成为我的dataframe的索引。
例如,在Python、NumPy、Pandas中,我将执行以下操作:
df = pd.read_csv('/mydata.csv')
d = df.set_index('Date')
在R里我该怎么做呢?
我试过了R:
df <- read.csv("/mydata.csv")
d <- data.frame(V1=df['Date'])
# or
d <
我是从斯塔塔来的,我想做如下几件事:
dataframe = data.frame(
a = c("test1", "test2", "test3"),
b = c(1,2,3)
)
varnames = colnames(dataframe)
head(dataframe$b) # second last line
head(dataframe$varnames[2]) # last line
我的目标是最后两行给出相同的输出。基本上,我希望以某种方式使用变量名称中存储的值,并将其用作最后一行的输入(正如在最后一行中使用的那样)。
我试着优化下面的计算,因为如果不加减法,就很难在普通笔记本电脑上计算它(因为RAM),这只是实际问题的例子。我需要指导如何加快速度。
我认为我需要利用稀疏矩阵,因为这是典型的问题,但我不知道如何处理它没有熊猫。或者可能有一个帮助程序库,它被优化来执行类似的事情。
如果不是的话,我正在考虑使用dask并行计算一些计算。
示例数据:
from sklearn.datasets import fetch_20newsgroups
import pandas as pd
import random
data = fetch_20newsgroups(subset='train')
d
是否可以编写一个C++函数,将R dataFrame作为输入,然后修改dataFrame (在我们的例子中是一个子集)并返回新的数据框架(在这个问题中,返回一个子数据)?下面的代码可能会让我的问题更加清楚:
码
# Suppose I have the data frame below created in R:
myDF = data.frame(id = rep(c(1,2), each = 5), alph = letters[1:10], mess = rnorm(10))
# Suppose I want to write a C++ function that gets id a
关于如何将data.frame的所有值从一种模式转换为另一种模式,已经提出了足够多的问题。这引发了以下问题:如何在R中转换data.frame的特定列?我有以下几点:
# @param dataFrame the data.frame to be transformed
# @param start the column which first needs to be rewritten to numeric data
# @param end the column which needs to be rewritten to numeric data as last
# @param exl
如果唯一字的总数大于10亿,word2vec算法中设置的向量大小的最佳数量是多少?
我使用的是用于word2vec的Apache Spark Mllib 1.6.0。
示例代码:-
public class Main {
public static void main(String[] args) throws IOException {
SparkConf conf = new SparkConf().setAppName("JavaWord2VecExample");
conf.setMaster("loc