腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
通过
遵循
特定
模式
合并
两个
数据
帧
python
、
pandas
、
datetime
、
join
、
merge
我有
两个
df: date=pd.date_range(start = '8/1/2020 7:00:00', end ='8/1/2020 7:15:00',freq='min') df1=pd.DataFramedt.datetime(2020,8,1,7,0),dt.datetime(2020,8,1,7,6),dt.datetime(2020,8,1,7,12)],'count':[5,6,1]}) 我想
通过
遵循
df
浏览 5
提问于2020-08-25
得票数 0
回答已采纳
1
回答
如果满足某些条件,如何删除行(Python)
python
、
sql
、
database
、
pandas
、
dataframe
我
通过
合并
两个
数据
帧
和删除重复行创建了一个
数据
帧
。是否有命令允许我
通过
删除
特定
列的日期低于今天的日期/过期来进一步过滤此
数据
?
浏览 1
提问于2017-08-02
得票数 1
回答已采纳
2
回答
在R中添加具有增量的新列
r
我正在尝试向R中
数据
框的开头添加一个新列。
浏览 0
提问于2015-07-07
得票数 3
2
回答
使用python将
两个
spark
数据
帧
合并
到一个
模式
中
python
、
apache-spark
、
pyspark
、
apache-spark-sql
我有
两个
不同的pyspark
数据
帧
,需要
合并
成一个。有一些逻辑需要为
合并
编码。其中一个
数据
帧
具有以下
模式
:(id,类型,计数),另一个具有
模式
:(id,timestamp,test1,test2,test3) 第一个
数据
帧
是
通过
sql "group by“查询创建的。在最终的
模式
(
合并
后的
模式
)中,类型count将有不
浏览 46
提问于2020-01-29
得票数 0
回答已采纳
1
回答
R-
合并
两个
数据
帧
r
、
merge
、
plyr
我想要
合并
的
两个
数据
帧
一直存在问题。一个比另一个大,但它们共享共同的列名和行名。另一个
数据
帧
:row.
浏览 0
提问于2014-03-11
得票数 0
3
回答
在R结果
数据
帧
中
合并
数据
帧
太大
r
、
dataframe
、
merge
、
inner-join
我正在尝试
合并
R中的
两个
数据
帧
,
通过
它们共享的一列来连接它们。下面是
两个
数据
帧
的屏幕截图,我在"INC_KEY“列上
合并
。 D有177156个观测值,p有1641137个观测值,但最终
合并
的
浏览 0
提问于2021-01-11
得票数 0
1
回答
`transform_lookup`是否节省空间?
python
、
altair
我正在尝试链接几个牛郎星图表,它们共享相同
数据
的各个方面。我可以
通过
将所有
数据
合并
到一个
数据
帧
中来做到这一点,但由于
数据
的性质,
合并
后的
数据
帧
比
两个
图表中的每个图表都有
两个
单独的
数据
帧
所需的
数据
帧
大得多。使用transform_lookup会比仅仅使用
合并
的
数据
帧</
浏览 20
提问于2021-03-23
得票数 2
2
回答
合并
两个
dataframes和pandas后的行数不同
python
、
pandas
、
dataframe
、
merge
我有一个
数据
帧
,我
通过
列EQ_NR将其与另一个
数据
帧
合并
。下面是第一个
数据
帧
的结构:(第320816行)
合并
后,我将一个带有'TA‘的
数据
帧
通过
'EQ_NR’的值从第二个
数据
帧
添加到第一个
数据
帧
中。问题是我在
合并
之前有320816行,在
浏览 13
提问于2016-08-09
得票数 3
回答已采纳
1
回答
Simulink Matlab函数块多维矩阵移位
matlab
、
multidimensional-array
、
simulink
因此,我
通过
插入一个函数块并使用circshift (非常欢迎您提出替代方法)来做到这一点。现在,当模拟时间增加到超过一个极小点(其中矩阵停止为2维)时,将出现更多的“页面”(第三、第四、fifth...dimensions)以容纳生成的
数据
。
浏览 3
提问于2015-01-21
得票数 0
1
回答
在不带row.names的相同长度的
数据
帧
中添加带row.names的数值列表对象
r
、
dataframe
、
dplyr
、
cbind
、
mclust
我使用mclust包在一个非丢失的
数据
帧
上执行了一个操作。非缺失
数据
框是
通过
使用select函数使用dplyr包创建的。因此,row.names在传递给mclust函数的
数据
帧
中显示为一个向量。当我尝试在不使用row.names的情况下将这个值列表追加到相同长度(相同大小写)的新
数据
帧
时,似乎丢失了重要的排序。我知道这一点,因为当我在新
数据
帧
中比较其他变量的分类组时,它们不等于使用这些相同变量在mclust函数中获得
浏览 26
提问于2020-01-12
得票数 0
1
回答
合并
R中的多个
数据
r
、
merge
如果在这段代码中我按ID
合并
了
两个
数据
帧
,如何
通过
相同的ID
合并
4个
数据
帧
,避免多次使用此代码? 谢谢
浏览 2
提问于2014-04-18
得票数 3
回答已采纳
1
回答
过滤具有类似o近时值的
数据
帧
(
数据
帧
中的vlookup)
python
、
dataframe
、
filter
、
vlookup
我希望
合并
两个
数据
帧
,并使用近时间值,将一个索引固定在另一个
数据
帧
中搜索(类似于excel中的vlookup )。你能推荐另一种虫流吗?df2 = pd.read_csv(path + '\sim.csv') print(t)
数据
帧
1:
浏览 6
提问于2022-09-06
得票数 0
1
回答
是否可以在Pandas中构建自己的多变量
数据
集?
python
、
pandas
、
time-series
、
forecasting
、
multi-step
我想根据天气
数据
来预测难民抵达欧洲的情况。到达
数据
来自不同的来源,天气
数据
也是如此。有没有办法将这两者结合起来,以便有一个用于多变量时间序列预测的
数据
集?1个时间序列:每月到达
数据
2个时间序列:天气
数据
有没有可能用天气
数据
和到达
数据
制作一个
数据
帧
,用于多变量时间序列预测?
通过
pandas和numpy实现了该算法。
浏览 6
提问于2021-07-05
得票数 0
1
回答
在内存中列出data.tables并按行组合(rbind)
r
、
dataframe
、
data.table
、
rbind
我在内存中有许多data.tables,名称
遵循
特定
的
模式
(例如: RE_1,RE_2.CO_1,CO_2.)。我想有效地绑定它们,只得到
两个
data.tables (RE和CO)。是否有一种方法可以使data.tables (或
数据
帧
)的“可用”列表?
浏览 2
提问于2015-05-21
得票数 2
回答已采纳
1
回答
根据应用于
两个
数据
帧
的条件创建第三个
数据
帧
python
、
pandas
、
dataframe
、
conditional
我有
两个
数据
帧
: df1 = pd.DataFrame(rng.rand(1000, 3), columns=['A', 'B', 'C']) df2 = pd.DataFrame(rng.rand(我想创建第三个
数据
帧
,如果df0'Split‘= 'Y’,则返回df1;如果df0'Split‘= 'N’,则返回df2。如果可能的话,我想保留原来
两个
数据
帧</em
浏览 16
提问于2019-01-14
得票数 1
回答已采纳
2
回答
强制github提交消息
github
有没有办法强制提交消息?我需要这个验证从UI和API级别,所以我不会看到任何提交有空白的描述。
浏览 2
提问于2018-01-16
得票数 0
1
回答
如何在AWS胶水作业中将多个源映射到单个目标
amazon-web-services
、
aws-glue
、
aws-dms
我有一个MySQL
数据
库和一个包含200个表的Mongo
数据
库,我正在尝试将它连接到Glue并
合并
一些表,最终得到
合并
数据
的20个表,以及一些过滤器和脚本,在
数据
到达需要的地方之前过滤掉其中的一些
数据
。我正在使用AWS Glue来做这件事,在使用爬虫生成1-1个表之后,我想开始将这些表
合并
在一起,但当我创建作业时,我只能选择一个表作为源,这意味着我最终会有200个作业。
浏览 6
提问于2018-08-17
得票数 1
回答已采纳
1
回答
将多个PySpark DataFrames与MergeSchema
合并
python
、
pyspark
、
pyspark-dataframes
我想将多个PySpark
数据
帧
合并
到一个PySpark
数据
帧
中。它们都来自相同的
模式
,但是它们可能会有所不同,因为有时会缺少一些列(例如,
模式
通常包含200个具有已定义
数据
类型的列,其中dataFrame A有120列,dataFrame B有60列)。是否有可能在不写入和读取所有
数据
帧
的情况下再次使用mergeSchema
合并
模式
? 谢谢。
浏览 2
提问于2020-06-22
得票数 0
1
回答
如何在csv
数据
仓库中添加拖车/页脚
pyspark
、
azure-blob-storage
、
azure-databricks
我有这样的解决方案因此,我以"","","".....的形式添加了其余的47列,这样我就可以
合并
2
数据
格式了:如果我想存钱 df3.coalesce(1).write.format("com.databricks.spark.csv")
浏览 3
提问于2021-08-06
得票数 1
2
回答
当编码时Row
模式
未知时,如何将string与Row
合并
以创建新的spark dataframe?
scala
、
dataframe
、
apache-spark
、
apache-spark-sql
、
schema
我计划将此函数应用于不同
模式
的各种
数据
帧
。这些
数据
帧
非常庞大,每个
数据
帧
有数百万行,但每个
数据
帧
都有一个定义好的
模式
我想创建另一个函数,它将调用第一个函数,将函数的输出字符串与它发送到函数的行
合并
,并创建一个新的
数据
帧
,该
数据
帧
将作为第二个函数的输出这
两个
函数都将在spark-scala环境中编写。我是spa
浏览 46
提问于2019-10-15
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券