前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >sparksql udf自定义函数中参数过多问题的解决

sparksql udf自定义函数中参数过多问题的解决

作者头像
sparkexpert
发布2018-01-09 16:14:33
1.8K0
发布2018-01-09 16:14:33
举报
文章被收录于专栏:大数据智能实战

在进行spark sql数据库操作中,常常需要一些spark系统本身不支持的函数,如获取某一列值中的字符串。

如要获取 “aaaakkkkk”中的第4-第8个字符。

针对这种需求,只有设置UDF来实现了。

代码语言:js
复制
val fun:((String,Int,Int) => String) = (args:String, k1:Int, k2:Int) => { args.substr(k1,k2)} 
val sqlfunc = udf(fun)
df.withColumn("column22", sqlfunc(col("column1"), 1,3)

这样就报错。

才发现这里面由于UDF的原因,在任何函数中这个数字本身是不认的,因此需要加上lit()的命令才可以。

代码语言:js
复制


 df.withColumn("column22", sqlfunc(col("column1"), lit(1), lit(3))//只有这样才可以实现。
 df.withColumn("column22", sqlfunc(col("column1"), 1,3)
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016年10月16日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
数据库
云数据库为企业提供了完善的关系型数据库、非关系型数据库、分析型数据库和数据库生态工具。您可以通过产品选择和组合搭建,轻松实现高可靠、高可用性、高性能等数据库需求。云数据库服务也可大幅减少您的运维工作量,更专注于业务发展,让企业一站式享受数据上云及分布式架构的技术红利!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档