腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
0
回答
如何
在
数据流
中
处理
当前
批次
时
获取
超过
N
秒
的
数据
具有接收以下类型
的
基于时间
的
数据流
(以元组
的
形式)
的
天气流应用: timestamp, } 现在,我
的
要求是检查每个传入记录
的
温度,如果温度
超过
35,则停止
处理
,并将最后10分钟
的
数据
转储
浏览 3
提问于2017-06-06
得票数 0
4
回答
反应式扩展:缓冲直到用户空闲
、
我有一个接收事件
的
程序,希望分批
处理
它们,这样当我
处理
当前
批
处理
时
传入
的
所有项都将出现在下一个批
处理
中
。Rx
中
基于TimeSpan和count
的
简单缓冲区方法将给我多个
批次
的
项目,而不是给我一个大
批次
的
所有进来
的
东西(当订阅者花费
的
时间
超过
指定
的
TimeSp
浏览 0
提问于2012-11-28
得票数 10
1
回答
反应式WebFlux
的
ReactiveQuerydslPredicateExecutor分页
、
、
、
我正在项目中尝试新
的
ReactiveQuerydslPredicateExecutor,但我找不到像在QueryDslPredicateExecutor
中
那样用于findAll(谓词,可分页)
的
方法这是故意
的
吗?
浏览 51
提问于2019-07-02
得票数 4
1
回答
数据流
GroupByKey对于具有小窗口(最好是2
秒
)
的
流式管道非常慢。
、
我有一个简单
的
数据流
管道配置为2
秒
的
固定窗口。它从pub/sub读取,反序列化消息到对象,记录对象,根据给定
的
键对对象进行分组,然后对分组
的
对象执行一些
处理
。请记住,这是一个从1VM开始
的
数据流
工作(不像它需要做洗牌,因为它只有一个VM)。它只看到几条消息(如2-3条)/
秒
。这似乎是没有意义
的
:有一个流式管道,
处理
在
2
秒
微批,
浏览 6
提问于2022-02-10
得票数 0
回答已采纳
3
回答
在
执行多个(约10K)
数据
库更新
时
使用GAE
获取
`` ``DeadlineExceededError'‘
、
我
在
GAE + Google Cloud SQL上使用Django1.4-我
的
代码工作得很好(
在
dev上使用Django
的
本地sqlite3
数据
库),但当我尝试“刷新”
数据
库
时
,出现服务器错误(500)
浏览 0
提问于2013-04-27
得票数 0
回答已采纳
2
回答
使用@计划读取
数据
库和执行一些任务
、
、
我刚开始使用spring网络流量,我的
当前
spring引导应用程序使用调度程序(注释为@Scheduled)从DB读取
数据
列表,同时以批方式调用rest,然后写入我希望
在
Spring
中
实现
的
事件流。
如何
将来自DB
的
项
批次
到较小
的
集合(例如10个项),并同时调用rest? 目前,应用程序
在
一个调度程序
中
获取
最大100条记录,然后再对它们进行
处理
。我正计划转移到r
浏览 14
提问于2021-01-09
得票数 1
1
回答
尝试填充GAE
数据
存储,但代码会消耗大量cpu时间。
如何
对此进行优化?
、
、
我尝试
在
Google
数据
存储
中
获取
亚马逊EC2
中
的
图像列表。我希望通过
在
GAE
中
执行cron任务来实现这一点。owner=liste_images_us_west[i].ownerId)问题是:使用get_all_images()
获取
列表只持续了几秒钟但是将
数据
写入Google
数据
存储需要太多
的
C
浏览 2
提问于2010-03-28
得票数 0
2
回答
spark流
中
奇怪
的
延迟
、
、
、
、
我最近一直
在
使用spark streaming来
处理
kafka
中
的
数据
。大多数情况下,
数据
处理
在
1-5
秒
内完成。然而,
在
几个
批次
之后,它连续花费了41 ~ 45
秒
,并且大部分延迟发生在从stage0
获取
数据
的
区域。我意
浏览 2
提问于2017-01-18
得票数 4
2
回答
在
SSIS包
中
覆盖旧行
的
简单方法
、
我创建了一个带有脚本组件
的
SSIS包,该组件从JSON调用
数据
并将其插入Server
中
的
一个表
中
。我已经设置了添加新行
的
逻辑,但是我希望找到最合适
的
方法来删除/覆盖旧行。
数据
每4小
时
获取
一次,因此每次运行包
时
都会有大约1000行
的
重叠。 我
的
第一个想法是在
数据流
任务之后添加一个SQL,该任务删除重复行( ID号最小)。但是,我想知道<e
浏览 2
提问于2019-03-26
得票数 1
回答已采纳
3
回答
Spark Streaming
中
的
窗口?
、
在
spark streaming
中
,我们接收
的
DStreams是一批RDDs。那么窗口
如何
进一步提供帮助呢? 据我所知,它还批
处理
RDDs。如果我错了,请纠正我( Spark Streaming
的
新手)。
浏览 4
提问于2015-10-08
得票数 7
回答已采纳
0
回答
spark流比较两个批
处理
和筛选
数据
、
我想使用火花流比较两批和过滤
数据
第一批:aaa 0bbb 0第二批:aaa1ddd 0key type相邻
的
两个
批次
,最后一个
批次
的
数据
(类型为0)必须是前一个<e
浏览 3
提问于2017-06-07
得票数 2
2
回答
Tensorflow
数据
集预取和缓存选项
的
正确用法是什么?
、
我已经阅读了TF页面和一些帖子,并了解了
如何
使用prefetch()和cache()来加速模型输入管道,并尝试
在
我
的
数据
上实现它。Cache()和我预期
的
一样工作,即在第一个时期从dist
中
读取
数据
,
在
随后
的
所有时期中,它只是从内存
中
读取
数据
。但是我使用prefetch()有很多困难,我真的不知道什么时候和
如何
使用它。parse_tfrecord(x)函数是应用于模型之前所需<em
浏览 56
提问于2020-09-08
得票数 3
2
回答
Apache beam:
在
处理
元素之前等待
N
分钟
、
我们使用python beam SDK
处理
GCP
的
数据流
。我们
的
管道依赖于外部系统,我们知道这些系统有一些延迟。
如何
编写等待
N
分钟
的
管道(其中
N
是我
在
启动作业
时
提供
的
常量)。诸如pubsub -> (休眠1分钟) ->从外部系统读取
数据
我对"FixedWindow“
的
理解是,它将
数据
分组到时间范围内,所以如果我使用60<e
浏览 2
提问于2021-02-19
得票数 0
1
回答
如何
在heroku上制作长请求
的
node.js应用程序
、
、
我想使用node.js
在
Heroku上创建一个应用程序来显示各种统计
数据
。谢谢。
浏览 2
提问于2013-09-17
得票数 0
回答已采纳
1
回答
批次
规范
的
测试性能很差。
、
、
在对训练
数据
进行交叉验证
的
过程
中
,批量规范
的
使用显着地提高了性能.但是(
在
整个训练集上进行再训练),批规范层
的
存在完全破坏了模型对一组保持集
的
推广。泛化w/o
当前
的
批规范层是很好
的
(对于我
的
项目目标还不够高,但是对于这样一个简单
的
网络来说是合理
的
)。 我不能共享我
的
数据
,但是有人看到一个明显
的
实现错误
浏览 4
提问于2016-10-18
得票数 2
回答已采纳
1
回答
如何
在Flink流
处理
窗口中收集后期
数据
、
、
假设我有一个
数据流
,其中包含事件时
数据
。我希望
在
8毫
秒
的
窗口时间内收集输入
数据流
,并减少每个窗口
数据
。timeWindow(Time.milliseconds(8))Point
数据流
的
关键是
处理
时间
的
时间戳映射到
处理
毫秒时间戳<
浏览 2
提问于2018-07-14
得票数 1
回答已采纳
2
回答
使用多字符分隔符将存储
在
谷歌云存储上
的
数据
加载到BigQuery
、
、
、
我想将带有多个字符分隔符
的
数据
加载到BigQuery。BQ load命令
当前
不支持多个字符分隔符。它只支持单个字符分隔符,如'|‘、'$’、'~‘等 我知道有一种
数据流
方法,它将从这些文件
中
读取
数据
并写入BigQuery。但是我有大量
的
小文件(每个文件400MB),它们必须写入一个单独
的
表分区(分区编号
在
700左右)。这种方法
在
处理
数据流
时速度很慢,因
浏览 22
提问于2016-08-11
得票数 3
回答已采纳
1
回答
Apache在
数据流
上
的
波束窗口/触发,不按预期使用elementCountAtLeast发出。
、
在
一定数量
的
元素到达之后,我正在尝试让apache发射光束。Apche光束版本是2.18.0,我是从公共部门消费
的
,但是
数据
到达
的
模式是事先知道
的
。他们按期到达相同大小
的
批次
。假设每10
秒
就有5个元素到达。所以我想把每个
批次
的
所有元素放在同一个窗口中,这样我就可以一起
处理
它们了。我使用
的
是elementCountAtLeast,因为我知道批
处理
<
浏览 3
提问于2020-06-05
得票数 0
2
回答
如何
使用Jmeter将请求分批发送
我有一个场景,我需要以
批次
的
用户定义
的
数字(例如,1K、5K、10K等)发送请求,每个批之间有一个指定
的
间隔。输入:
数据
来
浏览 1
提问于2017-03-31
得票数 1
1
回答
数据流
资源使用
、
、
、
在
遵循
数据流
教程之后,我使用pub/ tutorial来大查询模板,将JSON记录解析为一个表。约伯已经流了21天了。本月法案出台后,我开始调查资源
的
使用情况。我使用了2,017.52 vCPU小时,内存7,565.825 GB小时,总HDD 620,407.918 GB小时。对于我一直摄入
的
少量
数据
来说,这似乎高得离谱。
在
使用
数据流
之前,我应该拥有最少
的
数据
量吗?似乎对小箱子来说太过火了。是否有另一种更好
的</em
浏览 6
提问于2022-02-03
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券