腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Hive
是否
支持
临时
视图
?
我正在读https://cwiki.apache.org/confluence/display/
Hive
/LanguageManual+DDL#LanguageManualDDL-CreateView, 我想问一下
Hive
是否
支持
创建
临时
视图
?
浏览 25
提问于2019-04-17
得票数 1
回答已采纳
1
回答
是否
在配置单元中创建
临时
表?
、
Hive
是否
支持
临时
表?我在阿帕奇文档里找不到它。
浏览 66
提问于2011-03-22
得票数 22
回答已采纳
1
回答
Spark SQL 2.1
是否
支持
将
临时
表或
hive
表写入Mysql/Oracle?
我使用的是Spark SQL 2.1, 我可以在Spark SQL中以
临时
视图
的形式从mysql/oracle中读取数据: val url = "jdbc:mysql://localhost:3306SparkSession.builder().appName("SparkSQL003").master("local[4]").getOrCreate() session.sql(sql) 我的问题是,Spark SQL2.1
是否
支持
使用纯SQ
浏览 9
提问于2019-03-29
得票数 0
1
回答
如何从PySpark将数据持久化到
Hive
-避免重复
、
、
、
、
我正在使用graphframes、pyspark和
hive
来处理图形数据。当我处理数据时,我将构建一个图表,并最终将这些数据保存到一个
Hive
表中,在那里我将不再更新它。我知道
hive
现在
支持
ACID事务,但似乎pyspark目前不
支持
CRUD类型操作。下面是我的计划: 每次运行,创建一个dataframe来存储我找到的节点。当找到一个新节点时,:检查该节点
是否
已经存在于
Hive
中(例如,sqlContext.sql("SELECT * FROM existi
浏览 1
提问于2020-05-16
得票数 0
1
回答
OLAP实时查询海量数据-选项
、
、
、
、
我们有一个包含1800亿行和100+列的OLAP表,在
Hive
中它的容量接近8TB。大多数列都是维度,而且我们也有很少的度量列。我们希望构建一个实时系统
支持
临时
查询来运行仪表板应用程序,其中查询应该在10秒内执行。Presto,可用于直接查询hdfs,但我们不确定它
是否
会
支持
如此庞大的卷上的低延迟查询。 Cassandra,根据查询构建预聚合
视图
浏览 3
提问于2016-11-09
得票数 1
1
回答
TOP函数的配置单元Udf
、
我们正在连接来自hana和
hive
的表以及从Smart Data Access创建查询的
视图
Hana
支持
TOP函数,但
Hive
不
支持
。在配置单元中
是否
存在类似于TOP的现有UDF。我知道在
hive
中我们有限制,但我们需要一个类似于hana的UDF函数? 请建议解决此问题的任何解决方法。提前谢谢。
浏览 7
提问于2017-01-19
得票数 0
2
回答
使用get_json_object在配置单元中创建
视图
后的查询性能?
、
、
、
、
Hive
get_json_object函数
是否
解析每个JSON对象以进行字段解析,即使我们在JSON数据之上创建了一个
视图
?问题是担心将来使用此路径查询数据可能会很慢。蜂巢专家对此有什么想法吗?
浏览 2
提问于2015-10-23
得票数 0
1
回答
在Python中以编程方式启动HiveThriftServer
、
、
、
、
在spark-shell (scala)中,我们将为特定配置单元上下文以编程方式启动
Hive
Thrift服务器的org.apache.spark.sql.
hive
.thriftserver._作为HiveThriftServer2.startWithContext(hiveContext)导入,以公开该特定会话的已注册
临时
表。 我们如何使用python来做同样的事情呢?
浏览 0
提问于2016-04-15
得票数 3
2
回答
Apache :广播连接行为:筛选连接表和
临时
表
、
请注意,目前只
支持
Hive
表的统计信息,其中运行了命令。医生说我需要事先运行
Hive
的Analyze命令。当我使用temp
视图
作为表时,它将如何在这种情况下工作?据我所知,我无法对通过dataFrame.createorReplaceTempView("b")创建的spark
临时
视图
运行Analyze命令。我可以播放
临时
视图
内容吗?
浏览 7
提问于2021-07-08
得票数 2
回答已采纳
1
回答
在PYSPARK中从联接表中选择所有列
、
、
Inner Join df1 \我有一个错误: AnalysisException: Table或
视图
未找到
浏览 4
提问于2022-07-08
得票数 0
1
回答
一次执行中使用多个sqlContext
、
、
我写了下面的代码:def getHub(sc, ClientId): return sqlContext.table("myTable").where("ClientId = "+ClientId) df = getHub(sc, 1).union(getHub(sc, 2)) 我知道我不能创建多个SparkContext,但是创建多个SQLContext有什么问题吗?还是只创建
浏览 0
提问于2018-02-06
得票数 0
回答已采纳
3
回答
蜂巢中的ParseException
我正在尝试使用
hive
中的UDF。但是当我尝试使用userdate as 'unixtimeToDate'创建一个
临时
函数时,我得到了这个异常line 1:35 character ' ' not supported here 我不确定为什么这个字符不被
支持
浏览 0
提问于2015-10-20
得票数 5
3
回答
createOrReplaceTempView在Spark中是如何工作的?
、
、
我是Spark和Spark SQL的新手。如果我们将对象的RDD注册为表,spark会将所有数据保存在内存中吗?
浏览 87
提问于2017-05-17
得票数 74
回答已采纳
2
回答
通过shell脚本执行
hive
udf
、
、
我有一个
Hive
,它在蜂箱终端中工作得很好,我想通过shell脚本执行它。/custom_jar/readerCheck.jar;"
hive
-ejar,但最后一个创建
临时
函数不起作用。
hive
-e "CREATE TEMPORARY FUNCTION geoip AS
浏览 6
提问于2016-05-13
得票数 0
回答已采纳
1
回答
避免以编程方式使用创建的上下文启动HiveThriftServer2
、
、
、
、
我们试图使用ThriftServer从spark 2.0.0中的spark
临时
表中查询数据。 有任何方法可以让一个ThriftServer在一个端口上访问不同sparkSessions中的所有
临时
表吗?
是否
有任何方法可以使用不在代码中的上下文以编程方式启动节俭服务器?我看到了在启动时将配置--conf spark.sql.
hive
.thriftServer.singleSession=true传递给Thr
浏览 2
提问于2016-09-27
得票数 10
回答已采纳
1
回答
Teradataml:如何在teradataml中运行查询时使用temp db?
、
teradataml
是否
支持
临时
表和执行查询时创建的
视图
的
临时
数据库?如何使用它,
是否
需要任何特定的配置?
浏览 12
提问于2019-09-27
得票数 0
3
回答
直接给蜂巢写要花费太多时间
、
、
我还缓存了df,以查看它
是否
会使写入速度更快,但似乎没有任何效果: df_log.write.mode("append").insertInto("project_alpha.sends_log_test
浏览 5
提问于2017-11-14
得票数 2
回答已采纳
1
回答
在java应用程序之外查询我的
临时
表
、
我已经创建了一个启动spark (local[*])的java应用程序,并利用它将csv文件作为Dataset<Row>读取,并使用createOrReplaceTempView创建一个
临时
视图
。此时,我可以利用SQL来查询应用程序中的
视图
。有什么提示吗? 提前感谢
浏览 2
提问于2017-10-24
得票数 1
1
回答
视图
中包含多个CTE
、
、
、
Hive
是否
支持
多CTEs VIEW语句?我知道
Hive
支持
CTE (
HIVE
-1180),但不确定它
是否
有任何限制-例如,
支持
多个CTE inside VIEW语句:SELECT * FROM set1SELECT * FROM set2; 执行上述查询可成功创建配置
浏览 1
提问于2017-05-17
得票数 2
2
回答
通过Spark将csv文件加载到现有配置单元故事中
、
、
、
、
下面是我编写的代码,用于连接到关系数据库管理系统,然后创建
临时
表,在该
临时
表上执行SQL query,通过databricks模块将SQL查询输出保存为.csv格式。com.databricks.spark.csv").save("/xxxx/xxx/ami_saidulu") df1.write.option("path", "/xxxx/xxx/ami_saidulu").saveAsTable("
HIVE
浏览 30
提问于2017-12-22
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券