腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何
从
spark
sql
join
中
选择
顶
行
someval" || 2| "someval2"|"someval3"| 但是我只需要colA的不同行(因此,获取colA的
顶
行
就足够了
浏览 31
提问于2019-07-02
得票数 2
回答已采纳
2
回答
如何
从
group by with
join
中
选择
顶
行
、
、
我有两个
SQL
表: news和newsSections。当
选择
4种不同类型的新闻部分时,我想要显示组中最顶端的
行
。a.newsID, a.title, a.clicked, a.path, a.newsDate, c.sectionName, a.sectionID FROM dbo.News a INNER
JOIN
浏览 0
提问于2017-10-21
得票数 0
2
回答
在PySpark
中
,
spark
.
sql
语句中的字符串格式化是
如何
工作的?
、
、
我正在使用Pyspark,并且正在使用
spark
.
sql
编写一个查询。我希望
从
在其他地方声明的数组中
选择
值,以避免再次键入所有
行
的名称。ans=
spark
.
sql
("""select {} from <table_name>.format(",".
join
[
浏览 1
提问于2020-03-11
得票数 0
1
回答
SQL
派生表问题
我有以下
SQL
查询: VehicleRegistrations.PhoneVehicleType ON VehicleRegistrations.VehicleType = VehicleType.ID ON dt.VehicleRegID = VehicleRegistr
浏览 1
提问于2011-12-02
得票数 1
回答已采纳
1
回答
将clojure向量转换为flambo
sql
行
、
、
、
、
我正在开发一个函数,将向量转换为
sql
行
,以进一步将其转换为数据帧,并使用Apache
中
的SQLcontext将其保存到表
中
。我正在克洛尔开发,一路上迷路了。因此,我想实施这个解决方案: 我正在使用flambov0.60API函数
浏览 3
提问于2015-07-30
得票数 1
回答已采纳
1
回答
SQL
排序--
选择
顶
行
中
的
顶
行
、
、
到目前为止,这就是我所拥有的:from sales.sales_import si1(
如何
将查询限制为每个Customer_ID只返回前100项?这里的外部限制将限制所有
行
,而不是每个customerID的第一个X
浏览 5
提问于2016-12-08
得票数 0
2
回答
如何
提示排序合并联接或随机散列联接(并跳过广播散列联接)?
、
、
我对
Spark
2.1
中
的
join
有一个问题。
Spark
(错误的?)
选择
广播散列
join
,尽管该表非常大(1400万
行
)。然后作业崩溃,因为没有足够的内存,
Spark
以某种方式尝试将广播片段持久存储到磁盘,这将导致超时。所以,我知道有一个查询提示可以强制广播连接(org.apache.
spark
.
sql
.functions.broadcast),但是有没有办法强制另一个连接算法呢?我通过设置
spark</em
浏览 32
提问于2018-01-08
得票数 7
1
回答
Pyspark:在远程Hive Server中
选择
数据
、
、
、
我遵循这个例子:from pyspark.
sql
("
spark
.
sql
.warehouse.dir", warehouse_location) \ .getOrCreate()
浏览 0
提问于2017-09-04
得票数 0
回答已采纳
1
回答
在
Spark
中
创建临时视图
、
我的公司支持运行在
Spark
上的jupyter笔记本,它可以与S3
中
的数据对话。这方面的细节并不重要,因为我正在尝试执行类似
SQL
的命令来输入数据。看上去像这样 SELECT thing2 FROM: org.apache.
spark
.
sql
.catalyst.parser.ParseEx
浏览 2
提问于2020-06-09
得票数 1
回答已采纳
1
回答
如何
为结构化查询的不同代码部分指定分区数?
、
我有一个
Spark
流,类似于: .
join
(anotherDataFrame, columns) .save() 在
join
步骤
中
,我希望
spark
.
sql
.adaptive.enabled是true,因为这将加快连接的速度。在repartition步骤
中
,我希望
spark
.
sql
.adaptive.enabled是false,因为如果是真的,
浏览 0
提问于2019-01-28
得票数 2
2
回答
当源表
行
中
的多列与目标表
中
单行的相同列匹配时,
从
目标火花增量表
中
删除一
行
、
、
、
、
当
行
中
的某些列值与Source表
中
的相同列值匹配时,我希望更新databricks
中
的目标Delta表。 display(
spark
.
sql
("select * from test.targetDelta&
浏览 2
提问于2020-06-08
得票数 0
回答已采纳
1
回答
比较Databricks和MS
SQL
Server中表
中
的数据
、
、
、
我必须将databricks
中
的表与
SQL
Server
中
的相同表进行比较,并仅将缺少的记录填充到databricks
中
。是否有人可以帮助我
如何
使用databricks连接到
SQL
Server,
如何
以及在何处编写将填充缺失数据的查询。 谢谢!
浏览 47
提问于2021-06-18
得票数 1
回答已采纳
1
回答
在PYSPARK
中
从
联接表中
选择
所有列
、
、
我有一个'type = pyspark.
sql
.dataframe.DataFrame‘的数据,我想从这个数据df和另一个具有相同类型的数据df1
中
选择
所有列。我
从
r创建df,这是一个元组列表。df =
spark
.createDataFrame(r, schema =column ) fromdf \ Inner <em
浏览 4
提问于2022-07-08
得票数 0
1
回答
如何
在
spark
sql
上执行分组和聚合操作
、
、
如何
在
spark
上按操作执行组。我无法对某一列进行分组,并在各列上按聚合值分组。
spark
.
sql
("select sum(values) as volume,map b on a.id=b.id ) abc 我收到了跟随错误 ( o
浏览 3
提问于2019-01-08
得票数 1
回答已采纳
5
回答
一对多查询,为每个父项
选择
所有父项和单个顶层子项
、
、
、
有两个
SQL
表:+--+---------++--+---------+| 2| Blah2 || 1| 1 | 123 || 3| 2 | 15 |我想用单次查询
从
Parents表中
选择
每一
行
,并从Childs表中
选择
具有关系"parent"-
浏览 1
提问于2009-10-13
得票数 21
回答已采纳
1
回答
如何
获取
spark
scala数据帧
中
某列最小值对应的
行
、
、
、
、
//it give just the min value , but i want entire row containing that min value为了获得整个
行
,我将此表转换为用于执行
spark
.
sql
的df3//抛出错误 如果
spark
.<em
浏览 21
提问于2018-10-08
得票数 2
2
回答
Spark
SQL
扮演什么角色?内存DB?
、
最近我开始使用
Spark
SQL
。我读了数据源Api,仍然不明白
Spark
SQL
的作用是什么。真的愿意接受任何答案。 诚挚的问候。
浏览 0
提问于2018-01-16
得票数 1
2
回答
选择
SQL
Join
中
第二个表的
顶
行
、
我必须使用名为USERS和COMM_HISTORY的表COMM_HISTORY(comm_history_id, comm_date, comm_by, user_id)与这篇文章类似的,但似乎那篇文章没有正确的答案。1 John Doe 2012-01-29 Jane Doe1 John Doe 2011-10-20 J
浏览 0
提问于2012-01-30
得票数 1
回答已采纳
2
回答
只
从
卡桑德拉拉出星火中所需的列,而不加载所有列
、
、
、
使用连接器,可以直接将所需列
从
ES加载到
Spark
。然而,使用火花-卡桑德拉连接器,似乎不存在这样一个直接向前的选项来进行同样的操作。将ES
中
的数据读入火花--这里只有必需的列被
从
ES带到
Spark
:es_epf_df =
spark
.read.format("org.elasticsearch.
浏览 1
提问于2020-06-18
得票数 0
回答已采纳
1
回答
Spark
中
的广播哈希连接(BHJ),用于完全外部连接(外部、完全、完全外部)
、
、
如何
强制
spark
中
的Dataframe完全外连接以使用Boradcast Hash
Join
?以下是代码片段:val Result = BigTable.
join
( org.apache.
spark
.
sql
.functions.broa
浏览 1
提问于2017-04-26
得票数 6
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券