腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Apache
Flink
中
是否
可以
直接
从
数据库
表
中
读取
数据以
进行
批处理
,
而
不是
从
csv
文件
中
读取
数据
?
postgresql
、
spring-boot
、
dataset
、
apache-flink
、
batch-processing
我需要我的
Flink
批处理
作业
从
我的Spring Boot项目的postgres
数据库
中
读取
数据
。我
在
Flink
中看到的选项仅用于
读取
csv
文件
。在这种情况下,我需要从我的
表
创建一个
csv
文件
。
浏览 36
提问于2020-07-23
得票数 2
回答已采纳
2
回答
如何使用
Flink
读取
Postgresql
中
的
表
postgresql
、
apache-flink
我想使用
Flink
对Postgresql
中
的
数据
进行
一些分析。我应该如何和在哪里给出端口地址,用户名和密码。我正在尝试使用链接:中提到的
表
源。我翻阅了所有的
文件
,但没有找到详细的报告。
浏览 0
提问于2018-06-21
得票数 1
回答已采纳
1
回答
如何在sbt/
apache
项目中
从
资源
文件
夹
中
打开
文件
scala
、
intellij-idea
、
resources
、
sbt
、
apache-flink
我正在使用
apache
开发一个基于scala的项目,到目前为止,我只
在
IntelliJ
中
运行我的项目,它没有出现任何问题。现在我第一次创建一个JAR
文件
,然后由
apache
运行时执行,我遇到了打开资源
文件
的问题。root src
浏览 2
提问于2018-12-12
得票数 4
1
回答
如何基于
批处理
表
的增量窗口为计算编写SQL
apache-flink
、
flink-sql
我的要求是基于
批处理
表
的增量大小窗口
进行
计算。来源
表
:3-1,p1,10,000,0003-3 p1 \x{e76f} 30成果
表
:e76f} p1 \x{e76f} (10+20+30)/3 3-4 \x{e76f} p1 \x{e76f} (
浏览 0
提问于2018-03-26
得票数 0
回答已采纳
2
回答
如何处理(
Apache
)高IO瓶颈?
apache-spark
、
apache-flink
、
google-cloud-dataflow
、
apache-beam
、
dataflow
让我们举一个简单的例子,我有一个非常简单的波束管道,它只是从一个
文件
中
读取
数据
并将
数据
转储到一个输出
文件
中
。现在,让我们考虑输入
文件
是巨大的(一些GB的大小,您通常无法
在
文本编辑器
中
打开的
文件
类型)。由于
直接
运行程序实现非常简单(它将整个输入集读入内存),它将无法
读取
和输出这些大型
文件
(除非您为java vm进程分配了不太实际的大量内存);因此,
浏览 2
提问于2021-07-01
得票数 0
回答已采纳
2
回答
不使用BLOB执行
批处理
azure-machine-learning-studio
我
可以
在
不使用BLOB的情况下对Azure ML web服务执行
批处理
吗? 我正在将
数据
从
SQL
数据库
读取
到
CSV
文件
流
中
。我
可以
直接
将它流到服务
中
,
而
不必实际保存并
读取
BLOB的结果吗?
浏览 0
提问于2016-12-14
得票数 0
回答已采纳
1
回答
弹簧间歇状态保持
java
、
spring
、
spring-batch
我第一次
在
我的应用程序中使用Spring
批处理
。基本上,我的应用程序
读取
多个
CSV
文件
并
进行
一些处理。
读取
每个
CSV
文件
后,它将
CSV
文件
移动到同一个系统
中
的其他
文件
夹。我的问题是,如果我的应用程序由于一些失败
而
停止。如果它正在
读取
某些
CSV
文件
,那么如果我重新启动应用程序,它应该继续<em
浏览 2
提问于2018-01-08
得票数 0
回答已采纳
1
回答
流在Hadoop
中
的应用
hadoop
、
spark-streaming
、
apache-flink
、
flink-streaming
、
flink-cep
在这个例子
中
,我确实看到他们创建了一个单独的应用程序(类似于流应用程序),该应用程序生成和消费
数据
,并在
数据
上应用模式匹配。他们现在还没有
在
.Till(如卡夫卡)之间放置一个流层,单应用程序就足以满足这一目的,这使得它非常优化。现在,我知道,如果我使用Kafka,那么我需要两个应用程序;一个用于将
数据
摄取到Kafka主题中,另一个用于消费Kafka主题的
数据
。我有几个问题我没有得到回答: 什么时候?
浏览 2
提问于2016-06-13
得票数 0
1
回答
在
中将.xls
文件
导入mysql
java
、
mysql
、
servlets
、
import-from-excel
我有一个300+ xls
文件
文件
夹。这个
文件
的结构是相同的,但是
数据
是不同的。因此,我需要使用servlet将这些
数据
导入mysql
表
。我认为有几个阶段:但是,如何在技术上使用servlet来实现这个机制呢? 谢谢
浏览 0
提问于2011-04-24
得票数 0
1
回答
使用PHP将
数据
从
PDF导入
数据库
php
、
pdf
、
pdf-generation
、
tcpdf
、
fpdf
我们能否将
数据
从
PDF
文件
读取
到PHP。我们
可以
从
excel或
csv
文件
中
读取
数据
,这些
数据
可以
使用PHP
直接
导入到
数据库
。类似地,
是否
有任何方法
从
pdf
文件
中
读取
数据
,并使用PHP将其导入
数据库
。 例如
浏览 3
提问于2014-01-13
得票数 3
回答已采纳
1
回答
在
Flink
SQL作业
中
查询SQL Server
数据库
表
时,为什么
Flink
SQL作业
从
正在运行变为已完成?
apache-flink
、
flink-sql
当我们
在
作为SQL Server
数据库
表
的源的
Flink
SQL CLI中选择任何
表
时,为什么
Flink
作业在从
数据库
表
中
获取所有记录后“完成”?有没有可能让它“运行”,这样它就
可以
从
数据库
表
中
获取最新的
数据
?
浏览 4
提问于2020-12-25
得票数 1
1
回答
Flink
SQL客户端环境配置,将
CSV
文件
作为源流式处理
表
读取
apache-flink
、
flink-sql
我想从SQL客户端试用
Flink
SQL
中
的Match_Recognize操作符。为此,我对源
表
进行
了以下设置 - name: TaxiRides connector: path: "/home/bitnami/Match_Recognize/TaxiRide.<e
浏览 1
提问于2020-02-13
得票数 0
1
回答
如何将
数据
从
Azure SQL DB加载到Synapse Spark Datalake?
azure-sql-database
、
azure-data-factory
、
azure-data-lake
、
azure-synapse
我正在寻找一个解决方案,通过这个解决方案,我们
可以
将
数据
从
Azure SQL DB加载到Azure Synapse Spark (
不是
在
专用池中)。我们有一个
csv
文件
,其中有
数据
。目前,我们正在更新或将
数据
插入到
csv
文件
中
,我们正在通过星火
数据
存储器
读取
该
文件
并将其加载到dataframes.But
浏览 6
提问于2022-10-31
得票数 0
2
回答
使用JdbcBatchItemWriter控制春季
批处理
的提交/回滚
java
、
database
、
transactions
、
spring-batch
、
commit
我使用spring
批处理
读取
数据库
中
的
数据
并将其写入
文件
。 如果
文件
写入成功,则更新
数据库
行。根据spring
批处理
文档和其他来源,我
可以
使用JdbcBatchItemWriter更新
数据库
条目。但是,我找不到<
浏览 6
提问于2015-04-09
得票数 0
2
回答
Flink
Scala缺失导入
scala
、
maven
、
apache-flink
在
我的
Flink
项目中,我找不到连接器的某些库(具体来说,我需要吃一次
CSV
,
在
批处理
或流模式下
读取
几个块
数据
的TBs )。>1.15.1</
flink
.version>我查看了包
中
的符号,但没有找到
浏览 26
提问于2022-11-14
得票数 0
1
回答
业务存储库和Spring批编写器的分离
数据
源
spring
、
batch-processing
、
spring-batch
、
spring-boot
作业很简单,CSVtoDBFileWriter: ::当应用程序上下文加载和:我
从
oracle2 1的
表
中
读取
属性以创建or
浏览 0
提问于2014-11-08
得票数 2
回答已采纳
2
回答
星星之火:
从
http响应的结果
读取
sparkSession
java
、
apache-spark
有关火花的小问题,以及如何
从
http响应的结果
中
阅读。 sparkSession.read().format("org.
apache
.spark.sql.cassandra").o
浏览 8
提问于2021-09-10
得票数 2
回答已采纳
1
回答
是否
可以
从
对象
而
不是
像ArcGIS或.geojson这样的
文件
中
读取
CSVLayer源代码?
arcgis
、
arcgis-js-api
是否
可以
从
对象
而
不是
像ArcGIS或.geojson这样的
文件
中
读取
CSVLayer源代码? 我的
数据库
中有关于一个物体的
数据
,包括纬度、经度和海拔。当我想在地图上显示这些对象时,现在我应该创建一个
CSV
文件
或一个GeoJson
文件
。我
是否
可以
在
不创建这些
文件
但
直接
从
浏览 0
提问于2019-09-02
得票数 1
2
回答
如何将excel表格
中
的列映射到
数据库
中
的列?
java
、
database
、
excel
我需要
读取
一个excel
文件
,并将
数据
从
excel
表
上传到
数据库
。我也会在
数据库
中有类似的用户
表
。我只需要从excel表格
中
读取
每一行并插入到表格
中
。 但是为此,我需要知道excel
中
的哪一列将进入db
表
中
的哪一列。我计划通过将
表</em
浏览 3
提问于2012-02-20
得票数 0
1
回答
Cosmos DB
可以
从
文件
Blob、
Csv
或Json
文件
中
读取
批处理
大小的
数据
吗?
.net-core
、
azure-cosmosdb
、
azure-cosmosdb-sqlapi
我目前正在研究如何使用Cosmos db
读取
数据
,基本上我们目前的方法是使用带有cosmos DB SDK的.Net Core C#应用程序
从
文件
blob、
csv
或json
文件
中
读取
整个
数据
,然后使用for我们好奇的是,cosmos DB
是否
能够
从
文件
blob、
csv
或json
文件
以及类似的SQL服务器
中
读取
一
浏览 1
提问于2019-07-18
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
官宣:Apache Flink 1.14.0 发布
想成为大数据开发工程师,你必须掌握的开发流程图是这样的
Flink on Hive构建流批一体数仓
Apache Flink OLAP引擎性能优化及应用
深度对比Apache CarbonData、Hudi和Open Delta三大开源数据湖方案
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券