腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
将
ascii
字符
添加到
spark
中
的
数据
帧
、
、
、
当前有一个
数据
帧
,我想在最后一行中放置一个
ASCII
字符
。我有一个大约有17列
的
pandas
数据
帧
,并创建了一个带有新行
的
新
数据
帧
。]) newrow.loc[0] = [chr(26),'','','','','','','','',''
浏览 9
提问于2020-07-08
得票数 0
3
回答
PySpark - UnicodeEncodeError:'
ascii
‘编解码器无法对
字符
进行编码
、
、
、
使用
spark
.read.csv和encoding='utf-8'将带有外来
字符
的
数据
帧
加载到
Spark
中
,并尝试执行一个简单
的
show()。>> df.show() File "<stdin>", line 1, in <module> File "/usr/lib/
浏览 2
提问于2016-09-23
得票数 17
1
回答
PartitionBy删除PySpark
中
的
特殊
字符
、
我有一个包含3列(col1
字符
串、col2整数、col3
字符
串)
的
数据
帧
(df),如下所示,但是有上百万条记录:Tes#t 456 mnopqrstTest's 789 hdskfdss 当我尝试用下面的语句使用PySpark来写
数据
时,Col1
中
的
特殊
字符
丢失了,并且在hdfs
中
创建目录时被
ascii
字符<
浏览 0
提问于2017-09-08
得票数 0
1
回答
如何
将
spark
dataframe
中
的
String类型列转换为Pandas dataframe
中
的
String类型列
、
、
我有一个从熊猫
数据
帧
创建
的
样本
spark
数据
帧
-from(pdf) # this is
spark
dfdf.printSchema() |-- input1: long (nullable = true) |--input2: string (nullable =
浏览 3
提问于2020-09-09
得票数 0
2
回答
将
csv文件作为
spark
数据
帧
读取
、
、
我有一个CSV文件和一个头文件,它必须作为
数据
帧
通过
Spark
(2.0.0和Scala 2.11.8)读取。当我尝试
将
spark
中
的
csv
数据
作为
数据
帧
读取时,我遇到了问题,因为标题包含列(No.指项目)具有特殊
字符
“。我尝试用来读取csv
数据
的
代码是: val
spark
= SparkSession.builder().appName(&qu
浏览 0
提问于2017-09-06
得票数 3
3
回答
我可以使用
spark
-csv
将
表示为
字符
串
的
CSV读取到Apache
Spark
中
吗
、
、
我知道如何使用
spark
-csv ()
将
csv文件读取到
spark
中
,但我已经
将
csv文件表示为
字符
串,并希望将此
字符
串直接转换为
数据
帧
。这个是可能
的
吗?
浏览 4
提问于2016-08-24
得票数 7
回答已采纳
1
回答
spark
.read。从零件文件读取
数据
时,
将
空
字符
串读取为null
、
、
让我们考虑包含以下
数据
的
csv文件 Id、职务、年份 1,,2000 CSV读卡器代码: var inputDFRdd =
spark
.emptyDataFrame.rdd .option("mode", "FAILFAST") .option("delimiter).rdd.zipWith
浏览 49
提问于2021-09-16
得票数 0
1
回答
错误:当收集R
中
闪烁
的
字数时,“
字符
串
中
嵌入nul”
、
、
、
、
我有一个星火
数据
框架(带有R
中
的
"sparklyr“包),其中包含来自3个
数据
源(新闻、博客和twitter)
的
单词计数。我试图使用collect()
将
数据
从
Spark
复制到R
的
内存
中
。在使用sparklyr计算了几个具有文本挖掘功能
的
单词之后,我有以下内容: # Source:
spark
<?> [??.:\0表示<
浏览 2
提问于2021-04-18
得票数 1
1
回答
SparkR DataFrame对UTF-8
字符
的
支持(多语言支持)
、
、
、
、
我已经使用Scala使用df.show()验证了
数据
帧
是否包含非
ascii
UTF-8
字符
。
Spark
-SQL还显示了正确
的
编码。但是,当我使用SparkR尝试showDF(df)时,UTF-8
字符
不能正确显示。如何让showDF(df)显示UTF8
字符
?最初是LOCALE="" & LANG="en_US.UTF-8"... 1)将其设置为LANG="xx_XX.UTF-8",其中X
浏览 1
提问于2015-11-21
得票数 2
1
回答
转换
spark
数据
框列
、
、
我有一个包含两列
的
spark
dataframe : Stars (数值)和categories (标签
字符
串,例如:"Restaurant,Italien,High-end")。我希望重新创建
数据
帧
,这样类别就变成了标签
的
计数。在上面的示例
中
,类别将变为3。 我曾尝试
将
数据
帧
视为熊猫
数据
帧
,但似乎不起作用。我是
Spark
的
新
浏览 22
提问于2020-04-13
得票数 0
2
回答
如何在"pyspark“
中
读取xml文件?
、
、
spark
.read \ .option('rootTag', 'tags')df =
spark
.read.format('xml').options(rowTag='file').load('ted_en-20160408.xml') 但也有错误。Please find packages at h
浏览 2
提问于2021-09-30
得票数 0
2
回答
优化PySpark与pandas DataFrames之间
的
转换
、
、
、
、
我有一个13M行
的
pyspark
数据
帧
,我想把它转换成pandas
数据
帧
。然后,
将
根据其他参数以不同
的
频率(例如1秒、1分钟、10分钟)对
数据
帧
进行重新采样以进行进一步分析。从文献[,]
中
,我发现使用以下任何一行都可以加快pyspark到pandas
数据
帧
之间
的
转换:
spark
.conf.set("
spark
.sql
浏览 11
提问于2021-11-19
得票数 0
2
回答
如何
将
rdd /
数据
帧
/
数据
集转换为
字符
串
、
、
、
如何在
spark
scala
中
不使用collect
将
rdd /
数据
帧
/
数据
集转换为
字符
串/列表
浏览 0
提问于2019-09-24
得票数 0
1
回答
停止
spark
createdataframe(pandas.df)剥离/修剪
字符
串
、
、
当我
将
pandas
数据
帧
转换为
spark
时,
spark
会自动剥离
字符
串列/删除前导和尾随空格。如何停止?sparkframe =
spark
.createDataFrame(pandas_df)示例'‘->’‘或'ab’-> 'ab‘
浏览 12
提问于2020-11-06
得票数 1
1
回答
在
Spark
SQL
中
传递参数
、
我需要在
Spark
SQL
中
传递参数。例如,我有以下查询作为Val时间戳=
spark
.sql("select timestamp from tablea "),现在,我有另一个查询要在where类
Spark
.sql
中
传递这个时间戳(s“select但是上面的查询返回不匹配
的
表达式错误。有没有人能提个解决方案
浏览 1
提问于2020-02-04
得票数 0
1
回答
如何使用Mongo ObjectId类型
的
自定义_id字段向
spark
dataframe添加列
、
、
我正在尝试
将
数据
从Elasticsearch加载到Mongo DB。我希望在写入_id时保留elasticsearch
中
存在
的
相同Mongo值。我可以这样做,但是Elastic search
中
的
_id字段是
字符
串类型,我想在将其转换为Mongo ObjectId
数据
类型后将其推送到Mongo DB
中
。来自elasticsearch
的
数据
被加载到一个
数据
帧
中
浏览 19
提问于2019-08-06
得票数 2
1
回答
如何截断
spark
dataframe列
的
值?
、
、
、
我想为
spark
数据
帧
的
单个列
中
的
每个
字符
串删除
字符
串
的
最后两个值。我想在
spark
数据
帧
中
实现这一点,而不是将其移动到pandas,然后再移回来。下面是一个
数据
帧
示例,# | age| name|# | 350|Michael| # | 290|
浏览 1
提问于2019-06-04
得票数 1
2
回答
Spark
SQL -
将
字符
串转换为
ASCII
、
、
、
我们有一个问题,一个生产者
将
一些Unicode
字符
串推送到一个应该是
ASCII
的
字段
中
。目前这项工作是纯SQL可配置
的
,因此我想知道是否有可能只使用
Spark
SQL
将
Unicode
字符
串转换为
ASCII
,类似于this问题中给出
的
解决方案(当然,这将导致不支持
字符
的
可能
数据
丢失,但这不是一个问题
浏览 122
提问于2020-12-16
得票数 0
1
回答
如何
将
多位数字转换为
ASCII
?
、
、
如何将此
数据
帧
中
的
所有值转换为
ASCII
? 我已经
将
一个
字符
串拆分为多个
字符
(如下所示),现在我想将该
数据
帧
中
的
值转换为
ASCII
。accounts['Identifier'].dropna()\ .apply(lambda x: pd.Series(list(x))).add_prefix('id_') 它
浏览 23
提问于2019-01-22
得票数 0
回答已采纳
1
回答
当多个文件合并在一起时,如何
将
文件名
添加到
数据
框
中
的
列?
、
、
当
数据
加载到框架
中
时,如何
将
file_name列
添加到
数据
帧
中
?因此,我希望
数据
帧
中
的
每条记录都显示file_name。我对此做了一些研究,发现它看起来应该可以工作,但它实际上不加载任何文件名,只加载文件本身
中
的
数据
。import org.apache.
spark
.sql.functions._ val df =
sp
浏览 12
提问于2019-10-09
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
假设你的fastq测序数据里面混入了非ascii 码字符
C语言编程基础学习字符型数据的ASCII码值为何是负数?
Python中的字符串和字符数据(下)
Python中的字符串和字符数据(上)
Spark中的数据缓存和数据持久化机制。
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券