腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
更好
地
聚合
多个
DataFrame
?
python-3.x
、
dataframe
、
merge
所以我有36个
DataFrame
,我必须在这三列“传感器ID”、“即时时间”、“测量”上合并到一个
DataFrame
中。
浏览 11
提问于2019-03-14
得票数 1
回答已采纳
1
回答
如何
将
dataframe
的所有日期时间列正确转换为iso格式
python
、
json
、
pandas
、
datetime
具有从不同源
聚合
的
多个
日期时间列的
dataframe
格式不一致。
如何
正确
地
将所有日期时间列转换为iso格式?并将其转换回
dataframe
: my_
dataframe</e
浏览 2
提问于2020-06-09
得票数 1
1
回答
如何
使用不同的
聚合
函数有效
地
聚合
同一列?
python
、
pandas
、
performance
、
pivot-table
考虑以下数据:df01 102 1 904 2 75 例如,
如何
通过考虑同一列上的
多个
聚合
函数的id有效
地
、优雅
地
聚合
列值:50 150
浏览 2
提问于2021-03-03
得票数 0
回答已采纳
3
回答
Spark/Scala在
多个
列上使用相同的函数重复调用withColumn()
scala
、
apache-spark
、
dataframe
、
apache-spark-sql
、
user-defined-functions
我目前的代码中,我通过
多个
.withColumn链将相同的过程重复应用于
多个
DataFrame
列,并且希望创建一个函数来简化该过程。在我的例子中,我查找的是按键
聚合
的列的累积和: .withColumn("cumA", sum("A").over(Window.partitionBy("ID"我想要的是这样的东西: def createCumulativeColums(cols: Array[String], df: <em
浏览 9
提问于2016-12-31
得票数 21
回答已采纳
1
回答
用sequence作为键参数触发
Dataframe
groupBy
scala
、
apache-spark
、
apache-spark-sql
我有一个星星之火
dataFrame
,我希望通过
多个
键
聚合
值。如火花文件所示:
dataframe
.groupBy(keys:_*).agg(...)Intellij Idea将我
浏览 2
提问于2016-05-30
得票数 1
回答已采纳
3
回答
使用pandas GroupBy.agg()对同一列进行
多个
聚合
python
、
pandas
、
dataframe
、
aggregate
、
pandas-groupby
pandas有没有一种内置的方法,可以在同一列df["returns"]上应用两个不同的
聚合
函数f1, f2,而不必多次调用agg()?示例数据帧:import datetime as dtdf = pd.
DataFrame
也许元组列表[(column, function)]会
更好
地
工作,以允许将
多个
函数应用于同一列?但agg()似乎只接受字典。 除了定义一个仅
浏览 0
提问于2012-09-26
得票数 190
回答已采纳
1
回答
Spark :对数组值使用collect_set?
java
、
apache-spark
、
apache-spark-sql
我有一个
聚合
的
DataFrame
,其中有一个使用collect_set创建的列。现在我需要在这个
DataFrame
上再次
聚合
,并再次将collect_set应用于该列的值。问题是,我需要将collect_Set应用到集合的值上--而且我看到的唯一方法就是爆炸
聚合
的
DataFrame
。有
更好
的办法吗?示例:country | continent | attributes ------------------------
浏览 1
提问于2019-02-10
得票数 9
回答已采纳
1
回答
函数来
聚合
列表中的所有元素。
r
、
function
、
tidyverse
使用tidyverse包,我可以轻松
地
聚合
一个变量。但是,我希望创建一个函数,使我能够同时
聚合
多个
变量。我知道我必须将包含
多个
变量的
dataframe
转换为一个列表,然后在这个列表中应用一个
聚合
函数。但是,我无法创建这个函数。
浏览 2
提问于2021-11-14
得票数 1
回答已采纳
1
回答
如何
通过分组正确
地
隔离数据文件的测试?
python
、
unit-testing
我想测试一下,我不会意外地搞乱
聚合
函数在单个测试中运行整个数据帧,并以串行方式断言,或是否存在一个通用模式,还是我测试错了?
浏览 0
提问于2022-05-03
得票数 0
2
回答
能否以及
如何
将参数传递给
聚合
中使用的
多个
函数?
python
、
pandas
考虑一下
dataframe
df A=list('xxxyyy'),))pd.Series.head, n=1) x NaNName: B, dtype: float64 但是,我想使用pd.Series.head和pd.Series.tail运行
聚合
我希望这个
聚合
看起来像下面的结果。重要的是要注意,我已经可以产生这个结果了。我在这里的目标是了解
浏览 2
提问于2017-08-17
得票数 3
回答已采纳
1
回答
使用KeyError与groupby一起使用自定义农业时
python
、
pandas
、
pandas-groupby
我试图使用pandas来执行
多个
聚合
(一些自定义),但是当我使用agg时,我会得到KeyError: 'type'。我以为自己写的
聚合
是正确的,但显然不是。
如何
将我自己的count_tweets()和count_retweets()更改为在新的
dataframe
中以列的形式正确
地
提供tweet和retweets的计数。# create example data df = pd.
DataFrame
([['user1', '
浏览 1
提问于2018-03-11
得票数 1
回答已采纳
1
回答
DDD:最终一致性和1到n关系
domain-driven-design
在我的域中,我有产品和订单
聚合
。订购参考产品。这是一个1到n的关系,所以一个产品有很多订单,订单属于一个产品。
如何
实现在单个事务中取消单个订单?适配器是否应该迭代停止的产品的所有订单,并为每个订单调用应用程序服务?我是否应该忽略在单个事务中修改
多个
聚合
,只使用所有受影响OrderIds的列表调用应用程序服务一次?有没有
更好
的解决办法?
浏览 0
提问于2018-01-11
得票数 4
回答已采纳
3
回答
使用不同的函数将
DataFrame
聚合
到一行
python
、
pandas
、
dataframe
、
group-by
、
aggregation
我有一个多行的
dataframe
,我想使用每个列使用不同的函数将其
聚合
到1行数据。以下面的
dataframe
为例:print(df) A B我想使用sum
聚合
第一列,使用mean
聚合
第二列。系列非常适合表示单个
dataframe
列,但不适合表示单个
dataframe<
浏览 5
提问于2021-12-21
得票数 1
1
回答
熊猫DataFrames的SQLAlchemy模型存储
python
、
pandas
、
flask
、
sqlalchemy
我正在构建一个烧瓶应用程序,允许用户上传CSV文件(包含不同的列),预览上传的文件,生成摘要统计数据,执行复杂的转换/
聚合
(有时通过芹菜作业),然后导出修改过的数据。若要持久化并可供
多个
用户传递到各种视图,请执行以下操作。但是,我不知道
如何
最好
地
将数据合并到我的SQLAlchemy模型中(我在后端使用PostgreSQL )。将
DataFrame
转换为JSON (
DataFrame
.to_json())并将其存储为json类型(映射到PostgreSQL的json类型)。这增加
浏览 1
提问于2014-05-06
得票数 13
1
回答
仪表板的MongoDB
聚合
mongodb
、
mongoose
、
aggregate
我通过应用“
聚合
”来实现它。我不断
地
收到“查询目标:扫描对象/返回大约1000”警报。我该怎么解决这个警报?我想到的方法如下。从仪表板中删除
聚合
函数:如果我们需要
聚合
数据,那么在那时发送一个查询来获取数据。将
聚合
函数和发送查询与业务逻辑分离:将一次性通过
聚合
函数获得的数据划分为
多个
查询,然后组合这些数据。 如果有
更好
的办法,我想知道是否有共同的办法。
浏览 2
提问于2022-10-04
得票数 0
回答已采纳
2
回答
Python :
多个
聚合
,->值列表
python
、
pandas
、
dataframe
我有一个
DataFrame
,它包含应用于
多个
列的
多个
聚合
函数的结果,例如: {'a': 1, 'b': 2, 'grp': 0}, {'a': 3, 'mean std0 2 1.414214 5.0 4.242641我希望将
聚合
结
浏览 1
提问于2018-09-06
得票数 2
回答已采纳
1
回答
基于两个或
多个
列的星火
DataFrame
聚合
apache-spark
、
apache-spark-sql
、
spark-dataframe
我想为一些基于
多个
列的自定义
聚合
编写一个联非新议程。一个简单的例子是有两个列( c1和c2 )的
dataframe
。对于每一行,我取c1和c2的最大值(我们称之为cmax),然后取cmax的和。当我调用df.agg()时,我似乎无法将两个或
多个
列传递给任何
聚合
方法,包括UDAF。第一个问题,是真的吗? 对于这个简单的例子,我可以创建另一个名为cmax的列,并在cmax上进行
聚合
。但实际上,我需要基于N个列的组合进行
聚合
,结果将是一个大小为N的集合。我希望在我的联新议程中
浏览 1
提问于2017-09-19
得票数 2
回答已采纳
1
回答
扩展Groupby以包含
多个
聚合
sql
、
scala
、
group-by
我实现了一个groupby函数,它成功
地
根据特定的
聚合
对列进行分组。问题是我对选择的列和
聚合
使用了一个参数作为MapString,String,这意味着不能在一个列上执行
多个
聚合
。以下是目前为止有效的方法: groupByFunction(输入,映射(“someSignal”->“groupByFunction”)) def groupByFunction(dataframeDummy:
DataFrame
someSession: String = "sessionId&
浏览 12
提问于2020-10-16
得票数 0
1
回答
如何
搜索以
dataframe
列中的特定数字开头的值?
python
、
pandas
、
string
、
dataframe
、
data-cleaning
我有一个像这样的
DataFrame
我想知道哪些值是以特定的数字开头的。我想知道这一点,因为这样我可以
更好
地
分
浏览 5
提问于2022-04-26
得票数 0
回答已采纳
1
回答
我们是在
dataframe
上使用groupBy还是使用reduceBy
apache-spark
、
group-by
、
spark-dataframe
而在groupBy中,apache中的
dataframe
会触发并在以后使用
聚合
,并在
dataframe
中使用另一列。有什么性能问题吗?reduceBy是一个
更好
的选择吗?
浏览 0
提问于2018-03-27
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
网站代码如何更好地优化
如何更好地完成建站工作?
如何更好地应用物联网系统?
区块链如何更好地帮助数据科学?
如何更好地阅读PDF文档?
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券