腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
这个
复杂
的
逻辑
可以
用在
spark
中
吗
?
、
、
我有一些像follow结构这样
的
数据,数据量非常大。我找不到合适
的
逻辑
来使用
spark
。1.你知道第一个数据
的
时间序列是2016-04-29,00:40:15。我想获取下一个数据,它是小于18秒
的
最后一个数据。我会得到第二个数据: 2016-04-29,00:40:24,2第三个数据是: 2015-04-29,00:40:36,2 2.如果下一个数据
的
标志与引物
的
数据不同,我将获得
这个
数据,无论它是否是小于18secs.And
浏览 3
提问于2016-08-15
得票数 0
1
回答
在UDT上激发SQL表达式
、
、
我有一个UDT (用户定义
的
类型)。我想在
Spark
表达式中使用它,例如UDTName * 10.3。我
的
UDT不仅仅是一个简单
的
数字,它是一个
复杂
的
类型,它对+-/*有自己
的
重写函数。我无法用标准scala类型实现我想要
的
逻辑
。我尝试在
Spark
1.6.0
中
的
Spark
表达式中使用
这个
表达式,并得到了以下结果: 无法解析“(UDTN
浏览 2
提问于2016-01-18
得票数 2
回答已采纳
1
回答
Apache
Spark
- Map Reduce调试技巧
、
、
我正在尝试实现Kafka -
Spark
环境。我正在尝试调试我
的
MapReduce
逻辑
(用Java语言实现)。
Spark
提交步骤使我
的
算法
中
的
断点调试变得
复杂
。传入
的
实时数据模式很
复杂
。模拟
复杂
的
算法将是一个非常耗时
的
过程。更好
的
开发环境将帮助开发人员在实时流数据上验证他们
的
map reduce
逻辑
。 请给我一
浏览 1
提问于2015-05-31
得票数 1
1
回答
如何掌握
spark
sql
、
我是一位能激发sql活力
的
纽比。我发现编写具有
复杂
逻辑
的
spark
查询程序可能非常棘手。例如,我知道
spark
sql库
中
的
运算符是相当有限
的
,所以有时我们需要实现UDF。但是,您如何知道库操作员是否
可以
执行某些操作?如何知道是否需要实现UDF?我发现很多开发者都能写出精美的
Spark
程序。你是怎么掌握
Spark
的
?如何使用
Spark
SQL提高
浏览 29
提问于2020-07-05
得票数 0
回答已采纳
1
回答
无法理解scala操作是如何在Apache
spark
中
运行
的
、
、
、
、
我所了解到
的
是,火花作业在有任务要在RDDS上操作
的
阶段上工作,在这些阶段
中
,它们是通过从
spark
控制台开始
的
惰性转换创建
的
。(如果我错了,请纠正我) ,那么这些函数和应
用在
RDDs上
的
任务之间有什么关系呢?Scala
的
编码有RDD上
的
操作,据我所知,RDD是<e
浏览 0
提问于2019-07-07
得票数 0
1
回答
连接到另一个mysql数据库,并在更新其他数据库时更新数据库表
、
有没有可能在连接一个远程mysql服务器
的
同时自动更新另一个数据库?例如我
的
数据库:在数据库二
中
添加或更新用户时,数据库一
中
的
用户名也会更新。如果可能的话,我该怎么做呢?提前感谢
浏览 2
提问于2010-11-21
得票数 0
回答已采纳
1
回答
共享火花会话
假设我有一个python文件my_python.py,在其中我创建了一个SparkSession '
spark
‘。我有一个jar,比如my_jar.jar,其中写了一些火花
逻辑
。我不是在我
的
jar
中
创建SparkSession,而是想使
用在
my_python.py
中
创建
的
同一个会话。如何编写一个
spark
-submit命令,它以我
的
python文件、我
的
jar和我
的
火花会话‘S火花’作为j
浏览 0
提问于2019-08-12
得票数 0
回答已采纳
1
回答
oracle nvl且不在
spark
sql
中
的
函数
中
、
、
我正在尝试在
spark
1.5.0
中
实现下面的oracle
逻辑
,我有如下select查询select name, id, age, country, CASE WHEN (id is not我想在
spark
中
实现case和NVL
逻辑
,有人
可以
帮助我如何使用数据帧在
spark
scala API
中
实现
这个
逻辑
吗
?
浏览 1
提问于2017-01-24
得票数 1
2
回答
jetty 9 websocket
中
的
Uri路径参数
、
、
我使
用在
jetty 9服务器上运行
的
spark
2.5创建了websocket如何在jetty 9 websocket
中
捕获路径参数?
浏览 5
提问于2016-11-24
得票数 0
1
回答
用于PySpark 3.1.1
的
Elasticsearch插件
、
、
我成功地在PySpark 2.4.5
中
使用了Elasticsearch
Spark
7.12.0。读写都很完美。现在,我正在测试升级到
Spark
3.1.1,
这个
集成不再起作用了。在2.4.5和3.1.1之间,PySpark
中
没有代码更改。 有兼容
的
插件
吗
?有没有人把
这个
用在
PySpark 3.1.1上? 错误: ?
浏览 59
提问于2021-03-27
得票数 0
2
回答
将函数应用于
Spark
DataFrame
中
的
所有单元格
、
、
、
、
我正在尝试将一些Pandas代码转换为
Spark
以进行缩放。myfunc是一个
复杂
应用程序接口
的
包装器,它接受一个字符串并返回一个新
的
字符串(这意味着我不能使用矢量化函数)。这将有效地修改DataFrame
中
的
所有单元。这就是我迷路
的
地方。我需要一个UDF,一个panda
浏览 2
提问于2019-02-02
得票数 1
回答已采纳
1
回答
将昂贵
的
初始化java.util.concurrent.Callables迁移到Apache
、
更确切地说: 有些数据确实
可以
在工人之间共享,例如,一些查找表,但不需要共享。工作人员
可以
在处理条目时更改数据,然后才以快速
的
方式重
浏览 4
提问于2016-10-06
得票数 0
回答已采纳
1
回答
如何在
Spark
中使用自定义类型安全聚合器
、
、
、
星火文档描述了如何同时创建一个 () (又名 )和一个 () (也就是org.apache.
spark
.sql.expressions.Aggregator
的
一个子类)。我知道您
可以
通过
spark
.udf.register("udafName", udafInstance)注册一个使
用在
sql
中
的
udaf,然后像使用
spark
.sql("SELECT udafName(在sql
中
也有使用聚合器
的<
浏览 0
提问于2018-06-28
得票数 1
回答已采纳
1
回答
Flex
Spark
DataGrid: GridItemEditor
中
的
ReferenceError #1069
、
、
、
我正在为
spark
DataGrid编写一个通用
的
<s:GridItemEditor>,以根据属性类型动态创建一个适当
的
UIComponent进行编辑。链接到GridColumn
的
一些属性很
复杂
,例如:我在
这个
复杂
的
属性
中
遇到了
这个
错误在
sp
浏览 3
提问于2012-03-24
得票数 0
回答已采纳
2
回答
为什么运行导出
的
jar文件提供“线程
中
的
异常”主“java.io.IOException;类未找到”?
、
如何将
这个
库包含在jar文件
中
? 我如何在
这个
包
中
运行一个应用程序?
浏览 4
提问于2016-11-19
得票数 2
回答已采纳
1
回答
Spark
Streaming -调用REST API与为
Spark
Streaming原生构建功能
我们有一个管理时间序列数据
的
特定功能。该功能已经作为REST API提供,并在Cloudfoundry上运行。我们希望提供对使用
Spark
Streaming和kafka摄取时间序列数据
的
支持,以便解决方案更具可扩展性和健壮性。从
spark
streaming内部调用REST API在
spark
中原生构建功能有什么缺点?
浏览 8
提问于2017-02-16
得票数 0
1
回答
可以
获得pyspark数据帧
的
源/原始查询
吗
、
输入:输出:
浏览 0
提问于2020-05-10
得票数 0
2
回答
如何在Java
中
对返回布尔值
的
函数
的
输出进行反转或补码
、
、
我正在用java编写一个
spark
代码,需要将一个数据集分成两部分。基于某种条件。Doesn't work 现在很明显,我
可以
写另一个过滤函数,返回false,但内部
逻辑
很
复杂
,我不想重写相同
的
逻辑
,也不想使用相同
的
过滤函数。在java中有没有一种方法
可以
包装
这个
函数,并在某种程度上得到补码呢?
浏览 29
提问于2020-01-30
得票数 0
回答已采纳
2
回答
数据库.自动并行性和
Spark
、
、
、
我有一个关于数据库单元格和
Spark
的
自动并行性
的
一般性问题。我有一个摘要表,其中有许多字段,其中大多数字段背后有一个
复杂
的
逻辑
。如果我在单个单元中放置单个字段
逻辑
的
块(%SQL),调度程序是否会自动尝试将单元分配到集群
中
的
不同节点以提高性能(取决于我
的
集群有多少节点)?或者,我
可以
使用它们
的
PySpark函数来组织并行运行吗?我正在使用LTS 10.4 (<em
浏览 3
提问于2022-05-04
得票数 0
回答已采纳
3
回答
可以
从不同
的
spark
上下文访问RDD
吗
、
、
我是
spark
的
新手。是否
可以
使
用在
不同
spark
上下文中定义
的
RDD?如果是,是如何实现
的
。我们在
spark
context1
中
创建一个hive表t1
的
RDD。我们是否
可以
在不同
的
spark
工作中使用(参考) RDD。
浏览 49
提问于2016-08-12
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python中的and和or你真的会用吗,代码逻辑竟然可以如此简单!
EXCEL中这个命令,可以快速标记,表格中的特殊数据!
可以去视频中水印的软件,不能错过这个
德道即刻用在人机种植牙大赛中获胜,却忽略了这个重要的角色
WebMoney钱包中的交易报告可以订购纸质的吗?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券