星火是返回垃圾/十进制字段的值时,查询一个外部蜂巢表在星火代码中使用星火SQL。
在我的应用程序流中,火花进程最初将数据直接写入存在外部Hive表的HDFS中。当第二个Spark进程试图使用Spark从Hive表中消费时,会获取不正确的数据。scala> val =spark.sql(“选择'dummy‘作为名称,10.700000000
我有一个简单的spark作业,它从文件中拆分单词并加载到hive中的表中。(ClientWrapper.scala:237)
at org.apache.spark.sql.hive.client.ClientWrapper.retryLocked(ClientWrapper.scalaat org.apache.spark.sql.hive.client.ClientWrapper.cre