腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
JDBC
连接
以
行
存储
模式
加载
snappydata
表
中
的
CSV
数据
、
、
、
嗨,我开始学习
snappydata
行
存储
在那里我尝试了所有的例子它
的
工作,但我需要
存储
的
csv
,json
数据
在
snappydata
表
中
,在这个例子
中
他们
使用
手动
连接
快照壳和创建
的
表
,并插入
的
记录,和
JDBC
客户端
的
另一个选择,我尝试了这种方式,但我不知道<e
浏览 8
提问于2017-03-12
得票数 0
2
回答
在Snappy
中
创建
的
表
不会出现在
JDBC
或Pulse
中
SnappyData
v.0-5我
使用
shell和
csv
文件在
SnappyData
中
创建了一个
表
。
数据
在这里(roads.
csv
):"1","Road
浏览 3
提问于2016-07-25
得票数 1
1
回答
将
数据
从MS SQL
表
加载
到
snappyData
、
、
、
、
我正在
使用
Tibco ComputeDB,这对我来说是新
的
。它
使用
sparkDB和
snappyData
。我想将MS SQL
中
的
数据
添加到
snappyData
的
内存
表
中
。我可以从
CSV
中
读取
数据
,并
使用
下面的命令将其
加载
到snappyDaya
中
。如果不存在,则
使用
csv
浏览 22
提问于2020-02-04
得票数 3
回答已采纳
1
回答
在对
SnappyData
运行JUnit时找不到Jetty
的
GzipHandler类
、
、
SnappyData
v.0-5**java.lang.NoClassDefFoundError: org/eclipse/jetty/server/handler<init>(SparkContext.s
浏览 6
提问于2016-08-06
得票数 1
1
回答
如何
在现有
SnappyData
中
使用
嵌入式spark
、
、
我
使用
了snappy-sql,在那里我创建了一些
表
,并执行了一些插入和查询……一切都很好.当我尝试对我在snappy-sql
中
创建
的
表
执行查询时...火花壳告诉
浏览 5
提问于2017-07-05
得票数 0
2
回答
SnappyData
数据
库架构能否与配置单元元
数据
存储
共存?
我在没有
连接
配置单元元
数据
存储
的
情况下,在
SnappyData
0.9
中
创建了一个带有几个基于
行
的
表
的
数据
库
模式
。稍后,我在hive-site.xml文件
中
添加了hive.metastore.uris属性,并让
SnappyData
连接
到它。令我惊讶
的
是,lead服务抱怨“检测到Catalog不一致”,并开始删除
浏览 1
提问于2017-07-13
得票数 1
2
回答
如果分区列不在Where谓词
中
,查询优化是否会失败?
假设我有20个
SnappyData
节点。我有一张这样
的
表格:id int not null,time timestamp notPARTITION BY COLUMN timeselect sum(value) from example_timeseries_table where foo = 'xyz'
SnappyData
如果是这样,我将
如何
改进
如何</e
浏览 0
提问于2016-08-25
得票数 1
2
回答
在java中将
数据
从
csv
导入snappy
数据
时出错
、
、
我在scala
中
的
表
模式
是 snSession.sql("create table category_subscriber( id int,catId int,brandId int,domains int,osId int,rType int,rTime int,ctId int,icmpId int,setId int,rAt int,cyId int)
使用
列选项(
存储
桶'5',PARTITION_BY'ID',OVERFLOW
浏览 9
提问于2018-08-06
得票数 1
2
回答
SnappyData
- snappy-job -无法运行jar文件
、
我正在尝试从
snappydata
cli运行jar文件。name := "SnappyPoc" libraryDependencies += "io.
snappydata
" % "
snappydata
-cluster_2.11" % "
浏览 3
提问于2017-10-20
得票数 0
1
回答
卡夫卡
连接
可以
使用
自定义查询与批量
模式
吗?
、
我试着把每排7天
的
记录寄出去。这是我正在进行
的
配置,但即使查询在DB服务器上生成记录,它也无法工作。 "connector.class": "io.confluent.connect.
jdbc
.JdbcSourceConnector", "mode": "bulk", "connection.url": "
jdbc
:mysql
浏览 4
提问于2019-10-18
得票数 2
回答已采纳
1
回答
查询
中
未遵守
的
架构
SnappyData
诉0.5这是我
的
脚步。我做错什么了吗?
JDBC
的
DBVisualizer
中
,我有以下
模
浏览 1
提问于2016-07-26
得票数 1
2
回答
如何
从
CSV
创建
表
?
SnappyData
诉0.5 但是,我有
CSV
文件而不是地板文件。在任何RowStore文档
中
,我都没有看到“
使
浏览 1
提问于2016-07-25
得票数 2
回答已采纳
1
回答
SnappyData
多个作业
以
实现并行性
我正在
使用
Snappydata
和SQL来运行一些分析,但是该作业速度很慢,并且涉及到对非常大
的
输入
数据
的
连接
操作。 我正在考虑首先对输入
数据
进行分区,然后同时在不同
的
分区上运行作业,
以
加快处理速度。但是在我
使用
的
嵌入式
模式
中
,我
的
代码获取传入
的
SnappySession,并且我可以
使用
bin/snap
浏览 0
提问于2017-09-21
得票数 1
1
回答
Spark
中
的
惰性评估。Spark
如何
从DB
加载
数据
假设我们设置了100
的
限制,并且Spark应用程序
连接
到
数据
库与百万records.Does Spark
加载
所有百万记录或
加载
100 x 100?
浏览 0
提问于2017-07-05
得票数 2
1
回答
如何
通过Azure Databricks更新azure SQL
数据
库/
数据
仓库
表
?
、
、
、
、
我在我
的
项目中有一个需求,我在Azure SQL DW
中
实现SCD类型2
表
。我可以
使用
JDBC
连接
器插入新记录,但我需要将旧记录更新为“过期”,并根据更新值更新其他记录。
浏览 20
提问于2019-01-24
得票数 3
回答已采纳
1
回答
如何
使用
Java更快地将1200万
行
从hive
表
中提取到
CSV
中
?
、
、
我需要
使用
JDBC
to Hive
连接
将大约1200万
行
放入
CSV
。我可以
使用
一些批处理来更快地完成它吗?我可以附加
CSV
文件吗?我已经
使用
JDBC
建立了到Hive
的
连接
,并且能够在我
的
本地计算机
中
创建
CSV
文件。但是它
的
运行时间很长,因为它
的
行数很大。我
使用
JDBC
结果集来
浏览 43
提问于2019-05-22
得票数 1
1
回答
SnappyData
将
数据
从多个
csv
文件导入到列或
行
表
中
、
、
我是
SnappyData
的
新手,我正在尝试将大量
数据
导入其中。因此,
数据
是从不同
的
来源创建
的
,并以
csv
文件
的
形式
存储
到每个位置
的
zip文件
中
。假设拉链
的
结构是zip1,zip2...zipn和每个压缩包包含完全相同
的
(header.
csv
,detail1.
csv
,detail2.
csv
,...detail15
浏览 0
提问于2017-06-29
得票数 1
2
回答
SnappyData
配置在一个物理服务器设置
中
的
连接
、
我正在加入两个
表
,在一个服务器
中
配置有64 CPU核和512 1B内存
的
SnappyData
中
的
大量
行
(目前为100 m1B),并希望利用。然而,文档
中
的
描述似乎意味着并置
连接
发生在每个节点级别。实际上,我需要
的
是类似于每桶级配置
连接
(或分区-
连接
)
的
东西,而且我没有充分利用服务器,因为CPU
的
总利用率在大多数情况下大约是10%
浏览 3
提问于2017-04-18
得票数 1
2
回答
可以
使用
Kettle
连接
到paradox 4.5
数据
库吗?
、
、
我是个初学者,我需要创建一个从Paradox
表
中
读取输入
的
转换。我们
使用
的
是Paradox
的
一个非常老
的
版本--它是4.5。我需要
加载
的
表
具有.db扩展名。任何帮助都将不胜感激。 谢谢!
浏览 2
提问于2011-04-30
得票数 0
5
回答
AWS Glue to Redshift:重复
数据
?
、
、
、
、
以下是我
如何
设置内容
的
一些要点: 我已经将
CSV
文件上传到S3,并设置了胶水爬虫来创建
表
和
模式
。我有一个Glue作业设置,它
使用
JDBC
连接
将
数据
从Glue
表
写入我们
的
Amazon Redshift
数据
库。Job还负责映射列和创建红移
表
。通过重新运行作业,我在redshift
中
得到了重复
的
行
(正如预期
的
浏览 0
提问于2018-09-19
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券