腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
解码
pyspark
中
的
字符串
URL
列
?
、
、
、
、
我使用
的
是python2.7和spark版本2.2.0。我在
pyspark
中
创建了一个数据框,它具有
字符串
列类型并包含
URL
。---------------------------------------------------------------------------------------------+ 因此,为了
解码
列
中
的
所有
URL
,我尝试使用urllib,并使用它创建一个udf,如下所示 from <e
浏览 11
提问于2019-03-01
得票数 0
回答已采纳
1
回答
如何
解码
URL
格式
的
列
、
、
你知道如何在
Pyspark
中
解码
下面的“竞选”栏目吗?本
列
中
的
记录是
URL
格式
的
字符串
:|user_id |campaignkasd877191kdsd999 |Aquisi%C3%A7%C3%A3o+%7C |我
浏览 1
提问于2022-06-15
得票数 1
回答已采纳
2
回答
每当我重新启动系统时,它都显示'utf-8‘编
解码
器无法
解码
kafka
中
的
字节0x98到spark
、
、
、
、
这是我从kafka获取数据到spark streaming
的
代码。首先,它在运行,但当我重新启动系统时,它再次显示以下错误: UnicodeDecodeError:'utf-8‘编
解码
器无法
解码
位置5
中
的
字节0x98 :无效
的
起始字节 from
pyspark
importSparkContextfrom
pyspark
.stre
浏览 41
提问于2019-12-19
得票数 2
1
回答
使用Python和GAE对编码
的
URL
查询参数进行不一致
的
解码
、
、
、
我正在尝试在提交之前在移动客户端
中
获得一致
的
URL
字符串
,并在收到后在服务器上获得一致
的
URL
字符串
,以便能够可靠地添加用于安全校验和
的
哈希。目前,我在客户端
的
URL
编码之后添加散
列
,并试图在服务器端
解码
之前获取
URL
,但我得到
的
是已经
解码
的
一个字符(句点): h
浏览 3
提问于2012-04-24
得票数 1
2
回答
列表列
中
的
Pyspark
筛选项
、
、
、
我在试图过滤数据
中
的
数据。Dataframe df有2
列
- query + href。在一行
中
:query是随机
字符串
,href是
字符串
列表。我有另一个名为urls
的
字符串
列表。查找从列表urls
中
查找href
列
列表
中
的
URL
+
url
在href列表
中
的
位置。我正在尝试df.filter(col("
浏览 0
提问于2020-03-27
得票数 2
回答已采纳
2
回答
在
PySpark
中使用
列
对象而不是
字符串
有什么优点
、
、
、
、
在
PySpark
中
,可以使用
列
对象和
字符串
来选择
列
。这两种方法返回相同
的
结果。有什么不同吗?什么时候应该使用
列
对象而不是
字符串
?例如,我可以使用column对象:# or# or
浏览 0
提问于2020-11-09
得票数 0
5
回答
Firefox自动
解码
url
中
的
编码参数,在IE
中
不会发生
、
、
、
我在Firefox和IE之间感到沮丧,主要是Firefox,因为在我可以在Javascript中使用它之前,它会自动
解码
散
列
中
的
参数。IE不会自动
解码
url
,因此不会出现读取错误。我
的
问题与此类似,只是我没有使用ASP.NET 鉴于“!%40%23%24%25^%26*”是使用encodeURIComponent
浏览 4
提问于2011-01-29
得票数 18
3
回答
当值与
pyspark
中
的
字符串
的
一部分匹配时,过滤df
、
、
、
我有一个很大
的
pyspark
.sql.dataframe.DataFrame,我想保留(所以filter)保存在location
列
中
的
所有行,其中
的
URL
包含预先确定
的
字符串
,例如'google.com我试过了:df.filter(sf.col('location').contains('google.co
浏览 2
提问于2017-01-27
得票数 66
回答已采纳
1
回答
JavaScript中用于
URL
的
双向散
列
JSON
字符串
、
、
、
、
我希望接受一个JSON
字符串
并对它进行加密/散
列
/编码,这样我就可以将它放入一个
URL
中
,以便它类似于如下所示
的
内容:'www.myrandomurl.com/someurl/123fas234asf1543rasfsafda' 然后,我想将该加密/散
列
浏览 4
提问于2015-12-10
得票数 5
2
回答
在
pyspark
DataFrame
中
创建某个类型
的
空数组
列
、
、
、
我尝试向df添加一个包含
字符串
数组
的
空数组
的
列
,但最终添加了一个
字符串
数组
的
列
。我试过这个: import
pyspark
.sql.functions as F df = df.withColumn('newCol', F.array([])) 我如何在
pyspark
中
做到这一点?
浏览 91
提问于2019-08-28
得票数 9
回答已采纳
1
回答
如何将电火花
列
(
pyspark
.sql.column.Column)转换为火花放电数据?
、
、
我有一个用例来映射基于条件
的
pyspark
列
的
元素。通过这个文档,我找不到一个函数来执行映射函数。因此,尝试使用
pyspark
映射函数,但无法将
pyspark
列
转换为dataFrame # like c
浏览 4
提问于2021-11-19
得票数 0
回答已采纳
2
回答
从tweet
中
删除urls UnicodeEncodeError:'ascii‘编
解码
器不能编码字符
、
、
我正在尝试使用
pyspark
从tweet数据集中删除urls,但我得到了以下错误: 从tweet
中
删除urls:from
pyspark
.sql.functionsimport udf normalizeTextUDF=udf(
浏览 1
提问于2017-04-12
得票数 1
回答已采纳
2
回答
如何从
PySpark
中
的
2
列
中
获得一行序列
字符串
?
、
、
、
、
我有以下数据结构:
列
"s“和"d”表示"x“
列
中
对象
的
转换。我想要做
的
是获取"x“
列
中
的
每个对象
的
转换
字符串
。例如,“新”栏如下:有使用
PySpark
的
好方法吗?我使用
PySpark
尝试了以下udf代码,但它不起作用: from
pyspark
.sql.functions impor
浏览 13
提问于2022-10-19
得票数 1
回答已采纳
2
回答
如何在
Pyspark
中
获取kafka模式注册表?
、
、
、
我正在查看
PySpark
的
相关库,以便从Kafka获取模式注册表并对数据进行
解码
。有人知道在
中
从scala到
pyspark
的
代码/库转换是什么吗
浏览 25
提问于2020-02-28
得票数 2
回答已采纳
1
回答
Base64
url
编码表示拼图
、
、
原始编码
字符串
看来是base64
url
编码
的
。事实上,使用几个base64
url
代码模块和在线工具
中
的
任何一个,
解码
后
的
值都是预期
的
结果。但是,编码
解码
值
的
base64
url
(同样使用几种工具
中
的
任何一种)不会再现原始
字符串
。两个编码
的
字符串
都
解码
到预期
的
浏览 0
提问于2015-09-21
得票数 0
回答已采纳
1
回答
Pyspark
:多节点上
的
多线程
、
我仍然是
Pyspark
的
新手,并尝试在周围搜索,但没有找到任何直接回答这个问题
的
答案。我正在运行一些作业来
解码
大量
的
URL
,目前它在单个节点上(默认情况下)是多线程
的
,只是想知道是否有可能在每个节点中跨多个节点使用多线程(spark +多线程)来进一步加速作业?我可以将多线程作为
Pyspark
udf函数
的
一部分吗?谢谢!
浏览 30
提问于2020-01-07
得票数 0
1
回答
在
pyspark
中将LongType()转换为DateType()并添加日期
假设我有一个具有
列
birth_date
的
dataframe df,该
列
具有值('123','5345',234345')等。df['birth_date'].cast(LongType())) 现在,如何将birth_date
列
设置为DateType,并将该
列
包含
的
整数值添加为日期为"1960-01-01“
的
天数?我尝试使用以下命令使用date_add方法date_add,但我对
py
浏览 36
提问于2019-03-23
得票数 0
2
回答
通过JDBC从
pyspark
dataframe插入到外部数据库表时
的
重复键更新
、
、
、
、
嗯,我使用
的
是
PySpark
,我有一个Spark dataframe,我使用它将数据插入到mysql表
中
。df.write.jdbc(
url
=
url
, table="myTable", mode="append") 我希望通过
列
值和特定数字
的
浏览 4
提问于2015-09-16
得票数 12
1
回答
用于显示不带小数点
的
整数
、
、
在下面的代码
中
,数据文件
的
所有
列
都是
字符串
。其中一
列
用一个小数位存储整数或小数(6.1,4.8,3,9.4,6,...etc.)。但是,一旦将数据加载到
pyspark
dataframe
中
,它也会显示带有单个小数位(例如3.0)
的
整数。 问题:我们如何才能强迫
pyspark
显示所有不带小数
的
整数值?例如,3.0应该显示为3。from
pyspark
.sql.types import StringTy
浏览 7
提问于2022-05-21
得票数 0
2
回答
电火花数据爆炸串柱
、
、
、
我正在寻找一种有效
的
方法,将
pyspark
df_input
中
的
行分解为
列
。我不明白这种格式
的
'@{name...}',不知道从哪里开始,以
解码
它。谢谢你帮忙!
浏览 1
提问于2022-06-14
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Excel中的PowerQuery进行广告URL编码及解码
Java中实现解码字符串的方法,实用代码
URL编码解码字符串,互联网无歧义传输,Go一招鲜吃遍天!
根据用户输入自动判断新列:示例中的列
网站建设中的URL设计应该注意什么?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券