腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何将
流式
数据
帧
写入
PostgreSQL
?
、
、
、
我有一个
流式
数据
帧
,我正在尝试将其
写入
数据
库。这里有将rdd或df
写入
Postgres的文档。但是,我找不到关于如何在结构化流媒体中做到这一点的示例或文档。spark.apache.org/docs/latest/structured-streaming-programming-guide.html#foreachbatch,但我不能理解在何处创建jdbc连接以及
如何将
其
写入
数据
库"false&
浏览 17
提问于2019-02-19
得票数 2
回答已采纳
1
回答
通过Spark groupBy
数据
帧
查找时间戳的最小值
、
、
、
当我尝试对列进行
数据
帧
分组,然后尝试查找每个分组groupbyDatafram.min('timestampCol')的最小值时,似乎不能对非数字列执行此操作。我从一个
postgresql
S3实例
流式
传输
数据
帧
,所以
数据
已经配置好了。
浏览 2
提问于2016-04-05
得票数 9
回答已采纳
1
回答
Pandas DataFrame to
PostgreSQL
使用Psycopg2
、
、
、
可以使用psycopg2将Pandas
数据
帧
写入
PostgreSQL
数据
库吗? 最终目标是能够将Pandas
数据
帧
写入
Amazon RDS
PostgreSQL
实例。
浏览 0
提问于2015-11-29
得票数 7
回答已采纳
2
回答
从pandas df更新
数据
库中的现有行
、
、
我有一个
PostgreSQL
数据
库。Pandas有一个“to_sql”函数,可以将
数据
帧
的记录
写入
数据
库。但我还没有找到任何文档,说明在我使用完dataframe时如何使用pandas更新现有的
数据
库行。 目前,我可以使用pandas read_sql_table将
数据
库表读取到
数据
帧
中。然后,我会根据需要处理
数据
。但是,我还不能弄清楚
如何将
该
数据
帧</e
浏览 73
提问于2015-04-13
得票数 25
1
回答
用Java实现Portlet中的流文件
、
、
我对Java还很陌生。我正在尝试创建一个 portlet,我需要基本上允许用户下载文件。可通过需要基本身份验证(用户名和密码)的GET请求访问该文件。用户可以看到这些凭证,因为它们将是他们的凭证。任何建议或建议都会很有帮助,我唯一的实际经验是将文件保存到本地计算机(在本例中是csv ),然后让用户下载该文件。
浏览 1
提问于2011-04-15
得票数 0
回答已采纳
1
回答
如何将
相机意图
流式
传输到位图中
、
如何将
相机
数据
流式
传输到位图中?我想将其
流式
传输到位图中,然后创建一个可变的位图,并在其上进行一些图像处理。我有两个问题1)我的相机意图将我带到Android图像拾取器,当我想留在我的应用程序中并在后台打开相机时- 2)我不知道如何实时访问相机
数据
来动态传播位图ARGB值。作为参考-我从不需要保存图像
数据
。我必须寻找一个
帧
到
帧
的更新。任何帮助都将不胜感激。
浏览 0
提问于2013-03-01
得票数 0
回答已采纳
1
回答
MediaMuxer有时会导致黑屏
、
、
、
、
广播在RTMP上工作得很好,但在本地保存生成的视频有时是可以的,有时只是带有声音的黑色
帧
(或者只是带有一些信息块的第一个部分
帧
),有时它首先播放音频,然后以随机的FPS速度播放视频。
浏览 4
提问于2017-02-28
得票数 0
1
回答
apache波束流处理故障恢复
、
、
、
、
运行一个
流式
传输管道,其中我使用avroIO
流式
传输来自gcs的文件/记录,然后创建每分钟/每小时的存储桶来聚合事件并将其添加到BQ中。如果管道失败,我如何正确恢复并仅处理未处理的事件?我认为一种方法是
写入
扳手或bigtable,但可能是
写入
BQ成功,但DB失败,反之亦然?如何在
流式
管道中以可靠一致的方式维护状态,以便仅处理未处理的事件?我想确保BQ中的最终聚合
数据
是不同事件的确切计数,而不是计数不足或计数过多?spark streaming pipeline如何解决
浏览 26
提问于2018-01-19
得票数 0
1
回答
使用FFmpeg通过RTMP发送H.264编码流
、
、
、
i_nals, &pic_in, &pic_out); fwrite(nals[0].p_payload, frame_size, 1, fp);这是在处理
帧
并将其
写入
文件的循环中现在,我正在尝试通过RTMP
流式
传输这些编码
帧
。据我所知,RTMP的容器是FLV。因此,我使用命令行作为试验: ffmpeg -i test.h264 -vcodec copy -f flv rtmp://localhost:1935/hls/
浏览 2
提问于2016-11-15
得票数 3
1
回答
在Spark结构化流中指定"basePath“选项
、
、
在Spark Structured Streaming (Java语言)中读取分区
数据
时,是否可以设置basePath选项?我只想加载特定分区中的
数据
,比如basepath/x=1/,但我还希望将x作为列加载。我为非
流式
数据
帧
设置basePath的方式似乎不起作用。+---+---++---+---+| 3| 4| +---+--
浏览 56
提问于2018-03-01
得票数 6
1
回答
spark streaming:从kafka读取CSV字符串,
写入
拼接
、
、
、
、
有很多从kafka读取json的在线示例(写到parquet) -但我想不出
如何将
模式应用于来自Kafka的CSV字符串。
流式
数据
:customer_1459,cusaccid_1102,27999942schema = StructTypeselect(from_json(col("value").cast("string"), schema).alias("json")) \ .se
浏览 22
提问于2017-12-20
得票数 3
1
回答
屏蔽来自Kafka流的
数据
、
、
、
、
我使用spark Structured来
流式
传输来自kafka的
数据
,它为我提供了以下模式的
数据
帧
Column Typevalue binarytimestamp long timestampType int 值Colum是以二进制格式出现的,但它实际上是一个具有struct类型的json字符串,要求读取json结构,并屏蔽其中的几个字段,然后
写入
数据
浏览 23
提问于2020-10-16
得票数 0
2
回答
将RDS Postgres
数据
流式
传输/逻辑复制到kinesis的最佳方法
、
、
、
我们的主要
数据
存储是RDS Postgres
数据
库。如果我们可以将Postgres中发生的所有更改
流式
传输到某个接收器-无论是kinesis、elasticsearch还是任何其他
数据
存储,那就太好了。
浏览 0
提问于2017-05-19
得票数 12
1
回答
在R中使用循环将多个
数据
帧
写入
SQL
、
、
、
、
我有一份
数据
帧
列表。我想使用循环将它们
写入
R中的
PostgreSQL
数据
库。但是,我只能在列表的第一个元素上执行循环。有人能告诉我如何改进我的循环吗?dcat是
数据
帧
列表,y2admin_2012、y2admin_2013、y2admin_2014是
数据
帧
。dcat <- list(y2admin_2012, y2admin_2013, y2admin_2014) 我可以将它们一个接一个地
写入
我的
Pos
浏览 19
提问于2020-04-10
得票数 0
回答已采纳
1
回答
如何
流式
传输所有文件的hdfs位置并同时
写入
另一个hdfs位置
、
、
、
我的工作是
流式
传输位置并读取
数据
帧
中的所有文件,然后将相同的文件
写入
另一个hdfs位置。 有人能建议一下我该怎么做吗?我正在使用Azure Databricks平台和pyspark来完成此任务。
浏览 14
提问于2019-10-08
得票数 0
回答已采纳
2
回答
在Android文件中读写大JSONObject
、
我正在尝试在文件中
写入
/读取json对象。json结构很复杂,并且是动态生成的。 对于小的json对象,我只需将json转换为字符串,然后进行字符串
写入
/读取。
如何将
JSONObject直接
流式
传输到文件,以及如何从文件直接
流式
传回JSONObject?
浏览 2
提问于2016-06-22
得票数 0
1
回答
python中的窗口
写入
,例如到NetCDF
、
、
在python中,我
如何将
数组的子集
写入
磁盘,而不将整个数组保存在内存中? xarray输入/输出文档指出,除非通过dask.array
流式
传输,否则xarray不支持增量
写入
,仅支持增量读取。(此外,修改
数据
集仅影响内存中的副本,而不影响连接的文件。)dask文档建议在每次操作后保存整个数组?
浏览 11
提问于2019-04-08
得票数 1
2
回答
通过加载作业(非
流式
处理)插入到BigQuery
、
我希望使用
数据
流将
数据
加载到使用的BigQuery表中,而不是
流式
处理(对于我们的用例,
流式
处理的成本太高)。我看到Dataflow SDK内置了对通过BQ流插入
数据
的支持,但我在Dataflow SDK中找不到任何开箱即用的支持加载作业的功能。如果我必须自己滚动,使用Google Cloud Storage执行BQ加载作业是一个多步骤的过程-将文件
写入
GCS,通过BQ API提交加载作业,并(可选)检查状态,直到作业完成(或失败)。我希望能够使用现有的TextIO.write()功能来
浏览 0
提问于2015-06-17
得票数 3
1
回答
OSX和Windows 10上的低延迟同步输出
、
、
、
我正在尝试通过高速USB 2输出同步
数据
(以编程方式生成),延迟非常低。理想情况下约为1-2毫秒。在Windows上我用的是WinUsb,在OSX上我用的是IOKit。WinUsb在其允许的范围内是相当严格的,并且要求每个等时传输是整数个
帧
(1
帧
=1毫秒)。我认为这个想法是你以某种方式每N毫秒(或微秒)唤醒一次,读取
帧
列表,计算出你需要
写入
的位置并这样做。我还没有为此编写代码,但我不完全确定如何继续,也没有我能找到的示例。当
帧
列表更新时,它
浏览 4
提问于2017-06-01
得票数 0
1
回答
将
数据
从API上传到GCP dataprep
、
是否可以将Restful API中的
数据
直接导入到data prep中? 我想可能会有一些变通的办法...1:将结果保存到GCS存储桶中的JSON文件中,并从那里导入。
浏览 12
提问于2020-09-09
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PipelineDB 快速入门
如何使用flink-connector-postgres-cdc将Kafka写数据到PostgreSQL数据库动态表中
实训课 KNIME数据库操作
“读字节聊大数据”进入大数据领域的学习路线是什么?
在 Docker 上搭建 PostGIS 数据库实现空间数据存储及可视化
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券