腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
SQL
如何
使用
JOIN
和
GROUPBY
显示
MAX
函数
的
匹配
大小写
sql
、
hadoop
我正在尝试
使用
Hadoop服务器上
的
SQL
查询来拉取数据。10 143 a 24 536 r143 bob536 jim 475 bob 我正在尝试
使用
t2连接t1,基于它们
的
公共列t1.b = t2.d,然后按e ( bob,jim等)对值进行分组,并从那里提取a
的
最大值( jims
的
max
(a)是24,bob
的
ma
浏览 11
提问于2019-01-31
得票数 0
3
回答
如何
设置最大值并保留所有列(针对每个组
的
最大记录)?
apache-spark
、
apache-spark-sql
| 63|| a|pref1| e| 84|+----+-----+---+-----++----+-----+---+----------++----+-----+---+----------+| a|pref2| z| 105| +----+-----+---+----------+
浏览 0
提问于2017-03-07
得票数 13
回答已采纳
2
回答
SQL
:
如何
在任何“类型”中只有“最大”条目的情况下进行连接查询?
sql
、
join
、
group-by
、
greatest-n-per-group
我有两个表:表事件类型
和
具有一对多关系
的
表事件。每个事件都有一个时间戳。现在,我希望有一个
SQL
查询,它返回每个eventtype +其对应事件
的
最新时间戳(在本例中,我可以保证时间戳是唯一
的
)。我不完全确定
如何
使用
SQL
直接以正确
的
方式完成这项工作。到目前为止,我
使用
的
是这样
的
东西:(
浏览 0
提问于2012-02-02
得票数 2
回答已采纳
1
回答
GroupBy
和
总和
c#
、
.net
、
linq
我读了很多
GroupBy
+ Sum
的
主题,但我不知道
如何
使用
它。contacts.
GroupBy
(i => i.Address.State.ToUpperInvariant());contacts.<
浏览 0
提问于2013-06-19
得票数 3
回答已采纳
2
回答
pyspark中
的
优化
pyspark
、
aggregate
但我注意到,在
groupby
操作之前,count()
函数
需要9分钟,而在
groupby
操作之后,count()
函数
需要35分钟。我需要一些关于
如何
优化
groupby
子句以减少处理时间
的
建议。配置参数: executor内存12g个executors 50个executor核心5个驱动内存40g数据大小约1TBdataframeA = hc.
sql
("select * fromtableA") datafra
浏览 3
提问于2016-11-28
得票数 0
1
回答
普及
SQL
中不区分
大小写
的
LIKE子句
pervasive-sql
我正在尝试用普及
SQL
编写一个查询,它
匹配
"LIKE“子句,但不区分
大小写
。 例如,我希望下面的查询同时
匹配
"john“、"John”
和
"JOHN“。目前,这是区分
大小写
的
。在T-
SQL
中,我只需要将WHERE子句
的
两个部分都包装起来,如下所示: SELECT name FROM table WHERE UPPER(name) LIKE UPPER(?)但是,将任何
函数
放在WH
浏览 74
提问于2019-01-22
得票数 0
2
回答
在组中查找最大值
的
记录
scala
、
apache-spark
、
apache-spark-sql
15.0 |foo || 2| 25.0 |baz || 1|20.0 |bar | | 2|30.0 |quok|
如何
使用
apache spark
SQL
做到这一点我尝试
使用
窗口
函数
,但未能获得正确
的
结果
浏览 10
提问于2019-09-09
得票数 1
回答已采纳
3
回答
pyspark列不可迭代
apache-spark
、
pyspark
当我尝试
groupBy
并获取最大值时,有了这个数据帧I正在获取列是不可迭代
的
:+---+-----++---+-----+ 65 linesWithSparkDF.show(10)---> 67 linesWithSparkGDF = linesWithSparkDF.
groupBy
(col("id")).agg(
max
(col("cycle")))
浏览 4
提问于2016-04-29
得票数 23
回答已采纳
1
回答
Join
-Group PySpark -
SQL
to Pysaprk
sql
、
apache-spark
、
pyspark
、
group-by
、
aggregate
我正在尝试
使用
pyspark连接基于此
SQL
查询
的
2个表。%
sql
FROM df c ON c.pp = b.ppGROUP BY c.cust_id ) 我试着在pyspark中跟踪,但我不确定这是否是正确
的
方式,因为我坚持
显示
我
的
数据。所以我选择了.
max
df.select(
浏览 12
提问于2020-12-16
得票数 0
1
回答
如何
将Laravel Collection
groupBy
与查询分页一起
使用
?
laravel
、
eloquent
、
laravel-5.6
、
laravel-collection
、
laravel-pagination
我喜欢
使用
Laravel
的
groupBy
函数
但是,我不能将它与paginate(x)
函数
一起
使用
,因为它返回有限数量
的
结果。
SQL
Query
的
Groupby
和
Laravel Collections
的
GroupBy
是完全不同
的
。如果我在查询中
使用
groupby
,它不会给我想要
的
结果。$not
浏览 0
提问于2018-06-07
得票数 0
4
回答
在Java Spark Dataframe API (1.4.1)中未定义
的
max
()
和
sum()方法
java
、
apache-spark-sql
、
spark-dataframe
将DataFrame.
groupBy
()
的
示例代码放入我
的
代码中,但它
显示
max
()
和
sum()
的
方法未定义。df.
groupBy
("department").agg(
max
("age"), sum("expense")); 如果我想
使用
max
()
和
sum()方法,我应该导入哪个Java包?这个示例代码
的
浏览 1
提问于2015-09-08
得票数 8
3
回答
SPARK DataFrame:删除组中
的
最大值
apache-spark
、
dataframe
、
apache-spark-sql
我
的
数据如下:---------------- a1 | 20a2 | 7如果我在"id“上分组,我正在尝试删除组中有
MAX
(val)
的
行。结果应该是这样
的
:---------------- a2 | 5我
使用
的
是SPARK DataFrame
和
SQLContext。我需要一些方法,比如: DataFrame df = s
浏览 0
提问于2016-05-11
得票数 6
2
回答
如何
在JOOQ中
使用
LIKE
函数
选择字符串数组
java
、
sql
、
postgresql
、
jooq
我现在想在JOOQ中
使用
'like‘
函数
来选择数据,包括不区分
大小写
和
部分
匹配
的
字符串数据数组。orange, lemon, banana}'); VALUES (2, '{apple, grape}');SELECT id, items FROM favorites WHERE 'orange'
浏览 1
提问于2017-01-10
得票数 0
2
回答
在Spark DataFrame中查找每个组
的
最大行数
apache-spark
、
pyspark
、
apache-spark-sql
我正在尝试
使用
Spark dataframes而不是RDDs,因为它们似乎比RDDs更高级,并且倾向于产生更多可读性
的
代码。在一个包含14个节点
的
Google Dataproc集群中,我有大约600万个名称被两个不同
的
系统转换为I:sa
和
sb。每个Row包含name、id_sa
和
id_sb。实际上,与a1关联
的
名称是n1、n2
和
n3,它们分别映射到b1、b2
和
b2,因此b2是与a1关联
的
名称中最常见
的</em
浏览 0
提问于2016-02-05
得票数 54
回答已采纳
2
回答
Slick 2.1.0
GroupBy
并获取所有列
scala
、
slick
externalId name version3 10 n3 2为此,我定义了以下巧妙
的
查询: .
groupBy
(x => x.externalID) case (id, group) => } 我
如何
才能把所有的列都取出来而不仅仅是id
浏览 1
提问于2015-05-29
得票数 2
回答已采纳
2
回答
SQL
Server -在设置COLLATE Latin1_General_CS_AS
的
位置搜索不区分
大小写
sql
、
sql-server
、
replace
、
collation
、
case-insensitive
现在
的
挑战是在已经设置了以下排序规则
的
数据库中使搜索不区分
大小写
: COLLATE Latin1_General_CS_ASWHERE BODY COLLATE Latin1_General_CI_AS LIKE '%TEST%' COLLATE Latin1_General_CI_AS;
如何
使replace
函数
中<
浏览 0
提问于2018-06-23
得票数 2
1
回答
按列
和
连接结果计算大熊猫DataFrame组
的
最小最大值中值
python
、
python-3.x
、
pandas
我有一个熊猫DataFrame,我想在一个列上执行最小,最大,平均,中值
的
计算,用A,B
和
C列对它们进行分组,然后我想将结果合并到初始
的
DataFrame。当我计算中间值时,我成功地
使用
了低音:result_median_df.to_csv(path_or_buf='median.
浏览 1
提问于2019-08-06
得票数 3
回答已采纳
1
回答
使用
laravel分页时抛出
SQL
错误
php
、
sql-server
、
laravel
、
pagination
我
的
控制器
函数
如下; public function index(Request $request){SUM(SS.quantity) as quantity[barcode] left
join
[orders] as [S] on [S
浏览 25
提问于2021-06-24
得票数 0
回答已采纳
3
回答
如何
选择最独特
的
值或
如何
在星火中执行内部/嵌套
的
groupBy
?
scala
、
apache-spark
、
apache-spark-sql
| 222 | 3 |以下是我迄今所尝试过
的
val DF = originalDF.agg(count("col_a").as("col_a_cnt"))
和
错误信息。org.apache.sp
浏览 3
提问于2018-02-26
得票数 0
回答已采纳
2
回答
为窗口上
的
列获取带最大值
的
行
dataframe
、
pyspark
、
group-by
、
window
1650367659030 | x | 2020-06-08 | 3 |我想为每一次约会创造出最大
的
成就2020-05-08 | 5 |我试过: df .agg( F.
m
浏览 4
提问于2022-07-29
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pandas与SQL的数据操作语句对照
以调试形式,深入理解凤凰全局索引
ZJU的第七十九天
MySQL数据库学习之两情相悦
关于数据库调优的总结
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券