首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >从case类生成Spark StructType /模式

从case类生成Spark StructType /模式
EN

Stack Overflow用户
提问于 2016-04-20 21:53:26
回答 3查看 25.3K关注 0票数 58

如果我想在case class之外创建一个StructType (即DataFrame.schema),有没有一种不创建DataFrame的方法?我可以很容易地做到:

代码语言:javascript
复制
case class TestCase(id: Long)
val schema = Seq[TestCase]().toDF.schema

但是,当我所需要的只是模式时,实际创建DataFrame似乎有些过分了。

(如果您很好奇,这个问题背后的原因是我定义了一个UserDefinedAggregateFunction,为此,您将覆盖几个返回StructTypes和我的用例类的方法。)

EN

回答 3

Stack Overflow用户

回答已采纳

发布于 2016-04-20 22:03:23

您可以使用与SQLContext.createDataFrame相同的方式完成此操作:

代码语言:javascript
复制
import org.apache.spark.sql.catalyst.ScalaReflection
val schema = ScalaReflection.schemaFor[TestCase].dataType.asInstanceOf[StructType]
票数 89
EN

Stack Overflow用户

发布于 2017-03-18 06:43:42

我知道这个问题已经有将近一年的历史了,但我偶然发现了这个问题,并认为其他人可能也想知道我刚刚学会了使用这种方法:

代码语言:javascript
复制
import org.apache.spark.sql.Encoders
val mySchema = Encoders.product[MyCaseClass].schema
票数 71
EN

Stack Overflow用户

发布于 2017-03-28 16:32:45

如果有人想要对自定义Java bean执行此操作:

代码语言:javascript
复制
ExpressionEncoder.javaBean(Event.class).schema().json()
票数 11
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36746055

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档