腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
对于
pic18f
,
延迟
x
微秒
c
、
assembly
、
embedded
、
delay
、
pic18
我需要一个用
C
编写的精确的时间
延迟
函数,它可以将pic程序的执行
延迟
给定的
微秒
数。我确实在microchipc.com上找到了一个使用ASM的例子,但代码只允许时钟速度达到32000000。Jumpback asm("goto $ - 12")#error delay.h - please define PIC_CLK correctlydelayus_variable=(unsigned char)(
浏览 1
提问于2011-01-20
得票数 2
回答已采纳
1
回答
如何用
C
语言实现系统调用的
延迟
时间(
微秒
量级)
c
、
linux-kernel
、
delay
、
embedded-linux
、
system-calls
如何在
C
中
实现系统调用的
延迟
时间?我用的是stm32f429和hc-sr04传感器。我需要一个10
微秒
的触发脉冲。我尝试过:for(k=0;k<16;k++)gpio_set_value(TRIG, 0 ); 但我认为asm("nop")
对于
延迟
是不准确的
在
精度方面,
在
系统调用
中
实现
微秒
量级的
浏览 4
提问于2014-11-19
得票数 0
1
回答
如何在STM32L-DiscoveryARM板上制作
微秒
精确计时器?
timer
、
stm32
、
1wire
我正在尝试实现达拉斯的OneWire协议,但是我
在
STM32L-Discoverage上产生了一个
微秒
的
延迟
。 如何实现足够精确的计时器,以便将程序
延迟
x
微秒
?
浏览 6
提问于2015-03-12
得票数 1
回答已采纳
3
回答
LPC1768 / ARM Cortex-M3
微秒
延迟
gcc
、
arm
、
delay
我正在尝试
在
裸机arm环境( LPC1768 )
中
实现
微秒
级
延迟
/ GCC我已经看到了使用SysTimer生成中断的示例,然后
在
C
中
执行一些计数,
C
用作时基 然而,
在
12 don的系统时钟下,我认为这不会很好地扩展到
微秒
级的
延迟
是否可以
在
循环中查询SYSTICK_GetCurrentValue的值,并确定在一
微秒
内有多少滴答,并在滴答的数量超过计算出的
浏览 0
提问于2011-06-26
得票数 1
回答已采纳
1
回答
采样率Android加速度计
android
、
accelerometer
我
在
android文档中看到
在
本例
中
,
在
调用SENSOR_DELAY_NORMAL()方法时指定了默认数据
延迟
(RegisterListener)。数据
延迟
(或采样率)控制通过onSensorChanged()回调方法向应用程序发送传感器事件的间隔。默认的数据
延迟
适用于监视典型的屏幕方向变化,并使用200,000
微秒
的
延迟
。您可以指定其他数据
延迟
,例如SENSOR_DELAY_GAME (20,000
微秒<
浏览 2
提问于2014-08-06
得票数 0
1
回答
用microchip
c
18编译器
在
pic18f
上创建大缓冲区
pic
、
microchip
、
pic18
使用带有
pic18f
的Microchip
C
18编译器,我想在程序数据空间中创建一个3000字节的“大”缓冲区。如果我把它放在main() (
在
堆栈上)
中
:我有这个错误:如果我把它放在全局
中
,我会得到这样的错误Section '.udata_main.o' length=0
x
0000007f 如何创建一个大的缓冲区?你有关于如何用
c
18管理
浏览 1
提问于2010-06-06
得票数 6
回答已采纳
4
回答
轻量级、低
延迟
的Java网络库?
java
、
networking
、
nio
、
netty
我正在处理一个客户端-服务器对,其中多线程客户端每秒执行数千次服务器调用,首要任务是实现最小
延迟
。吞吐量也应该很高。客户端和服务器端都是用Java编写的,通信语义非常简单(put/get操作)。我
在
考虑MINA或Netty,但我不确定这些异步库是否能在繁重的工作负载下提供稳定的低
延迟
。
浏览 0
提问于2012-06-22
得票数 7
1
回答
Linux read()
延迟
linux
、
linux-kernel
、
linux-device-driver
、
uart
在
Linux (4.8)
中
,有没有办法改善串口数据处理的
延迟
?特别是,线路上的实际数据与此端口上的select()和read read()函数返回之间的时间。 现在,我的测量结果是350
微秒
。我使用的是PERICOM (PI7
C
9
X
7954)的16
C
550兼容芯片。
浏览 23
提问于2017-03-04
得票数 3
回答已采纳
2
回答
CUDA异步不会立即返回。
optimization
、
cuda
、
parallel-processing
、
gpu
、
data-transfer
num_row, &A+i*LDA,每次通话的平均时间约为10
微秒
我试过阻塞版本,它需要30
微秒
。10
微秒
,
对于
一个非阻塞的电话似乎是很多。使用cudaHostalloc分配a。我
在
配备了1台Tesla
C
2050的机器上运行我的代码,我使用cuda版本5.5编译代码。我读过gpu PCI传输
延迟
(与非阻塞调用有点
浏览 0
提问于2013-12-26
得票数 0
回答已采纳
2
回答
Linux
c
++将秒(双)转换为毫秒、
微秒
、纳秒、皮塞秒
c++
、
linux
我的设备给我以秒为单位的
延迟
(char*),值类似于0.000003650000,我必须将这个值转换为毫秒、
微秒
、纳秒或皮秒。我用linux (
c
++)
中
的qt创建者编写了一个应用程序。我试图使用库chrono,但在我看来,它只保留长值,
对于
每种类型,我总是松散一些数据。哪种方法最适合这样做?
浏览 5
提问于2016-08-19
得票数 0
回答已采纳
4
回答
修复引擎从客户端发送修复消息到服务器的最低
延迟
是什么?
c++
、
benchmarking
、
latency
、
quickfix
、
fix-protocol
我正在
C
++
中
构建一个修复引擎,但是我不知道什么是一个很好的性能数字。考虑到网络时间和修复解析时间,
对于
客户机向服务器发送修复消息来说,以
微秒
为单位的好时间是什么?另外,有没有人知道这种简单的从客户端到服务器的修复消息操作当前可能存在的最低
延迟
?
浏览 12
提问于2015-07-08
得票数 7
1
回答
使用自定义速率的Android.Hardware.SensorManager.RegisterListener
mono
、
xamarin
、
xamarin.android
根据和的说法,从Android2.3 (API 9)开始,您可以为传感器
延迟
使用
微秒
的自定义速率,而不是在为传感器注册侦听器时使用SensorDelay枚举: 费率Android.Hardware.SensorEvent是
在
。该值必须是SensorDelay.Normal、SensorDelay.Ui、SensorDelay.Game或SensorDelay.Fastest之一,或以
微秒
为单位的事件之间所需的
延迟
。从Android2.3 (API级别9)开始,指定的
延迟
仅适用于
浏览 5
提问于2014-06-05
得票数 2
1
回答
有人有使用FastDB (
C
++内存数据库)的经验吗?
c++
、
sql
、
database
、
performance
、
in-memory-database
是一个开放源码的内存数据库,与
C
++紧密集成(它支持类似SQL的查询语言,其中表是类,行是对象)。与大多数IMDB一样,它也适用于以读取访问模式为主的应用程序。算法和数据结构是针对完全在内存(RAM)
中
读写数据的系统而优化的。它应该非常快,甚至与其他内存数据库相比,但我在网上找不到任何基准。我正在考虑对时间序列数据使用FastDB,在这样一个项目中,1)次毫秒随机访问读取
延迟
,2)每秒数百万行的连续读取吞吐量将是非常好的。您能指出FastDB的任何基准测试,特别是那些考虑读取
延迟
和吞吐量的基准吗?
浏览 2
提问于2010-09-28
得票数 8
1
回答
tcpdump时间戳测量的
延迟
无原因增加
timestamp
、
tcpdump
我通过从出口NIC上减去入口NIC处的时间戳来测量每个GW上的
延迟
。我发现潜伏期从2
微秒
持续增加到3000
微秒
。当我交换NIC时,
延迟
会增加一段时间,并且急剧减少,并再次增加。令人惊讶的是,即使GW上的
延迟
增加,当所有节点都有1000 when时,端到端的吞吐量仍然保持
在
900 when左右。基础设施
浏览 1
提问于2012-08-10
得票数 1
1
回答
微秒
延迟
c#
、
.net
、
delay
我需要在
微秒
内
延迟
一段时间来处理代码。我尝试了很多东西,比如thread.Sleep(
x
),但是它的分辨率只有毫秒。 我
在
2013
中
使用.NET 2.0。
浏览 4
提问于2014-04-15
得票数 0
回答已采纳
4
回答
执行两个语句之间的时间差不一致。
c++
、
latency
请您告诉我,为什么下列程序打印的timediff值通常为4
微秒
(不同运行时
在
90至1000次之间),但有时70
微秒
或更多
微秒
在
少数情况下(不同运行时
在
2至10次范围内):} { bool flagarray[MAXQ]; int
x
=timediff > THRDS) cout &l
浏览 7
提问于2014-12-26
得票数 0
回答已采纳
3
回答
如何计算RTP
中
的有效时间偏移
voip
、
offset
、
rtp
、
timestamp
我必须计算RTP流
中
数据包之间的时间偏移量。
对于
使用Theora编解码器编码的视频流,我有时间戳字段,如 2940000 ...
对于
音频规范编解码器,我有时间戳字段,如 38400 ... 所以我假设传输偏移量是320。为什么价值观如此不同?它们是
微秒
、毫秒还是别的什么?我可以推广一个公式来计算数据包之间的
延迟
,以
微秒
为单位,适用于任何编解码器吗?谢谢。
浏览 0
提问于2011-06-07
得票数 2
回答已采纳
1
回答
微秒
延迟
python
、
udp
我的Windows机器每秒可以发送30K条消息,所以假设我需要每秒发送4K条消息,我可以计算出每条消息之间所需的
延迟
,这样我将在每秒发送请求的数量,并使用time.sleep()设置
延迟
。我的问题是,当我得到每秒27K条消息的数量,接近每秒最大信息量时,每条消息之间的
延迟
是以
微秒
为单位的,而time.sleep()
在
该单位
中
并不准确。
在
蟒蛇身上还有其他方法来
延迟
微秒
吗?编辑- time.sleep()
在
微秒
浏览 2
提问于2017-09-17
得票数 1
3
回答
低读
延迟
SSD
ssd
、
hard-drive
什么是最具成本效益的低
延迟
(当阅读) SSD?我看过融合IO ioXtreme,英特尔
X
25-E和英特尔
X
25-M。令人惊讶的是,
在
纸上,
X
25-M的读取
延迟
似乎是64
微秒
的最低。我是不是遗漏了什么?
浏览 0
提问于2010-12-04
得票数 0
1
回答
衡量ec2实例间tcp性能的正确方法
performance
、
amazon-web-services
、
testing
、
networking
、
amazon-ec2
我使用qperf工具来度量AWS EC2实例之间的
延迟
。首先,我测试了两个
c
5xlarge实例之间的tcp
延迟
,得到了30秒的
延迟
。稍后,我终止了这些实例,并在新的两个
c
5xlarge实例
中
尝试测试。我的潜伏期是65
微秒
。结果出现这种偏差的原因是什么?进行这种测试的正确方法是什么?
浏览 0
提问于2019-07-08
得票数 0
回答已采纳
点击加载更多
相关
资讯
终端控制常用shell命令
交易信号低延时计算实测:百因子整体时延 40 微秒,用脚本写出媲美 C++的性能
中移软件大云企业操作系统BC-Linux V7.4重磅发布!从容应对不同场景!
10分钟入门Cython
单片机延时问题20问
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券