腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Spark
从
具有
未知
类型
的
任意
列
中
减去
整数
、
、
我尝试从一个系统获取
任意
SQL语句作为输入,并在
Spark
Databricks集群
中
运行它。此时,我
的
程序知道SQL语句
的
备用表,并为查询加载了这些表。但是我遇到了一个问题,SQL允许您
从
任意
列
中
减去
一个
整数
,而
Spark
不允许。我正在尝试通过正则表达式找到一种方法,将(T1.SomeColumn - 1)替换为它
的
spark
等效项;而不必完全
浏览 36
提问于2020-08-27
得票数 0
回答已采纳
1
回答
将日期时间保存到星火中
的
Parquet
中
、
、
、
我想在编译时用
未知
格式
的
数据创建Parquet文件。稍后,我将模式作为文本,并且我知道有些
列
包含日期与时间。我想使用
Spark
和Java来完成这个任务。因此,我遵循并创建了
具有
适当
类型
的
模式。我试着用
Spark
的
DataType.TimestampType和DataType.DateType来表示日期,比如
列
。但两者都不起作用。当我试图用JavaSchemaRDD.saveAsParquetFile保存文件时,我得到
浏览 3
提问于2015-02-20
得票数 4
回答已采纳
1
回答
基于数据
类型
的
熊猫数据块填充值设置
、
、
该表可以是数据库
中
的
任意
给定表。表
中
可能有
未知
的
列
和数据
类型
。我使用
的
数据库是Redshift。在获得熊猫DF
中
的
数据后,我需要检查数值/十进制
类型
的
列
中
的
nan值,如果有任何
具有
nan值
的
列
,则需要将值更改为0。pd.columns[pdf.is
浏览 1
提问于2022-02-15
得票数 0
回答已采纳
1
回答
您可以选择检索
任意
数量
的
列
,然后将单个
列
与空
列
合并吗?
、
我试图将两个不同宽度
的
选择合并到一个结果
中
。在Oracle标准SQL
中
,但由于缺乏权限,不允许使用PL/SQL。查询大致如下(带注释)。FROM [FOO] WHERE ROWNUM=13 SELECT COUNT(*), {n-1 null columns} FROM [FOO] 源表[FOO]在运行时被替换到查询
中
,它
的
列计数和
列
标签预先是
任意
的
和
未知
的
,但是查询
的</em
浏览 0
提问于2018-08-31
得票数 0
回答已采纳
1
回答
为什么postgres将一个
类型
分配给字符串?
、
、
、
如果执行SELECT 'test', 123,输出将是两
列
,第一
列
具有
未知
的
数据
类型
,第二
列
的
数据
类型
为
整数
。如果执行SELECT DISTINCT 'test', 123,输出将是两
列
,第一
列
为文本
的
数据
类型
,第二
列
为
整数
的
数据
类型
。
浏览 5
提问于2016-11-15
得票数 3
回答已采纳
1
回答
什么时候在哈斯克尔选“自然”而不是“
整数
”?
、
、
、
不久前,我在中发现了base数据
类型
。当您打算使用非负
整数
类型
时,应该使用它(在我看来是这样)。但还不清楚为什么我更喜欢Natural而不是Integer。这两种
类型
都
具有
任意
精度,都
具有
非常优化
的
运行时表示-- 和。但是,当您
减去
自然数时,Natural 并没有为代码增加更多
的
类型
安全性。而Integer在所有软件包中都比较流行。
浏览 1
提问于2017-08-27
得票数 10
1
回答
如何根据用户在运行时选择
的
逻辑创建新
的
大熊猫
列
?
、
、
我希望能够根据用户选择
的
公式在dataframe
中
创建一个新
列
。当公式选择在运行前已知时,答案是显而易见
的
,但我不知道在运行时公式
未知
的
情况下如何进行。dataframe
中
的
列
数可能有所不同,每个公式
的
变量/操作数也可能不同,因此lambda函数似乎不合适。 1
浏览 6
提问于2019-10-04
得票数 0
回答已采纳
3
回答
如何在Apache
Spark
中
处理变化
的
拼图模式
、
、
、
、
我遇到了一个问题,我在S3
中
将拼图数据作为每日数据块(以s3://bucketName/prefix/YYYY/MM/DD/
的
形式),但我无法从不同
的
日期读取AWS EMR
Spark
中
的
数据,因为一些
列
类型
不匹配,但同一
列
在其他文件
中
可能
具有
null值时出现,这些值随后被推断为字符串
类型
。JSON数据也被划分为
浏览 0
提问于2016-12-02
得票数 24
回答已采纳
2
回答
从
保持原始数据形状
的
numpy
列
中
减去
单个值
、
、
、
我想从numpy
列
中
减去
给定
的
值。例如,给定一个二维矩阵,我想从给定
的
列
中
减去
一个
任意
值。我知道这可以通过以下代码来实现:基本上是
从
0
列
减去
my_value。我想要做
的
是
从
选定
的
列
中
减去
我
的
值,
浏览 1
提问于2021-01-17
得票数 0
回答已采纳
1
回答
如何在pySpark中将带有尾随破折号
的
数字格式化为负数?
、
我正在使用
Spark
读取一些CSV数据(通过指定schema并设置为FAILFAST模式)。数据包含不同
的
列
类型
,包括
整数
。问题是一些
整数
有尾随
的
破折号而不是前导破折号(324-而不是-324,
spark
将它们作为字符串)。目前它无法将这些值解析为
整数
(如果我
从
代码
中
删除FAILFAST模式,它会将所有非
整数
替换为null): df =
spark
.read.fo
浏览 16
提问于2020-06-17
得票数 1
2
回答
Apache
Spark
从
时间戳
列
中
减去
天数
、
、
、
我正在使用
Spark
数据集,但在从时间戳
列
中
减去
天数时遇到了问题。2017-09-22 13:17:39.900 - 10 ----> 2017-09-12 13:17:39.900 有了date_sub函数,我得到了没有13:17:39.900
的
2017年9
浏览 1
提问于2017-09-22
得票数 5
回答已采纳
10
回答
实现可分性-7规则。
、
、
乘以2,再
减去
剩下
的
部分。如果结果可被7整除,则原始数字可被7整除。此规则适用于手动可分性检查。例如:在此挑战
中
,您应该应用此规则,直到可分性状态明显为止,即数字不大于70 (但是,有关详细信息,请参阅下面)。创建一个函数或一个完整
的
程序。输入:一个正
整数
;您
的
代码应该支持高达3
浏览 0
提问于2016-02-14
得票数 26
1
回答
dataframe
中
的
一个
列
可以包含不同
的
数据
类型
项吗?
、
、
如果我在csv文件
中
更改
列
的
一个值,那么整个
列
值都会更改,例如,我有一个
列
类型
int64,我将一个项
从
任意
整数
更改为字符串,然后当我们读取像df =pandas.read_csv(文件名)这样
的
文件时,默认情况下整个项
类型
都更改为字符串。实际上,我必须在df
列
中找到
具有
不同数据
类型
的
一个或多个项,例如,如果我
的
浏览 142
提问于2020-09-10
得票数 0
2
回答
将字符串对齐为
列
、
、
我有一个字符串集合,用户可以添加或
减去
这些字符串。我需要一种方法来打印出列
中
的
字符串,以便每个字符串
的
第一个字母对齐。但是,在运行时,
列
数必须是可变
的
。虽然默认为4
列
,但使用时可以选择
从
1到6之间
的
任意
数字。我不知道如何将
未知
数量
的
字符串格式化为
未知
数量
的
列
。示例输入:它,所以我们是一个i,y,z,c,yo,bo,go,a 示例
浏览 3
提问于2012-11-11
得票数 1
回答已采纳
2
回答
*PySpark* TypeError: int()参数必须是字符串或数字,而不是‘
列
’
、
、
、
、
我正在处理这个PySpark项目,当我试图计算某些内容时,我会得到以下错误:我试着按照
的
解决方案来解决这个问题,但对我来说没有效果不管怎样,请在下面找到我
的
密码。我是PySpark
的
新手,所以我很想向社区寻求帮助。
浏览 3
提问于2019-10-23
得票数 0
回答已采纳
2
回答
未检查
类型
的
SQLITE日期
、
、
我刚刚测试了sqlite并创建了一个表。0|a|DATE|0||0 Hello
浏览 5
提问于2013-10-29
得票数 6
回答已采纳
1
回答
验证
中
列
的
数据
类型
、
、
、
我有3
列
的
火花放电数据。Test1表
的
DDL都
具有
字符串数据
类型
。因此,如果我这样做,df.printSchema都是字符串数据
类型
,如下所示,>>> df.printSchema+----------+--------------+-------------------+ 现在,我只想过滤'c2‘<e
浏览 4
提问于2017-09-10
得票数 2
回答已采纳
1
回答
星星之火无法合并拼花文件(
整数
->十进制)
、
、
第一
列
包含以下列:十进制:十进制(38,18)(可空=真)我想将它们合并,但我不能简单地单独阅读它们,并将它们抛到特定
的
列
中
我读这两本书都是这样
的
: df =
spark
.read.format("parquet").load([
浏览 2
提问于2020-11-05
得票数 1
1
回答
DataFrame cols
的
pyspark变换子集,但保留索引
、
、
、
我想要做
的
是对数值
列
(按行)应用一些转换,但保留索引信息。 在下面的示例
中
,我将使用“按行
减去
平均值”作为示例,我需要执行
的
实际操作是多种多样
的
,并且需要
任意
函数。我知道你不需要使用一个函数来
减去
spark
dataframe
的
平均值,我在这里只是为了简化而使用它。我不能传递索引
列
,因为我不希望它们包含在转换计算
中
。它们可以是日期,也可以是字符串,而不是简单
的
<e
浏览 19
提问于2021-04-16
得票数 1
回答已采纳
1
回答
火花JDBC并行
、
、
、
我正在处理用例,在这个用例
中
,我需要一次性卸载JDBC Datasource --在我
的
例子
中
,它是SAP数据库。我想将整个SAP数据库卸载到HDFS/MapR。我们最初尝试了sqoop,但是Sqoop
的
问题取决于主键字段,并且它只支持一个主键字段--按分拆-按争理。然后,我们考虑利用
Spark
来做数据集
的
Sqoop。通过各种JDBC选项可用
的
火花,例如,这个帖子。它还只接受一个
列
,而对于SAP Hana表,它主要由共轭键(多个键组成主键)组
浏览 0
提问于2018-09-18
得票数 2
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券