腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
webrtc
中
p
帧
的
num_references
是
1
?
在
webrtc
中
,非关键
帧
的
参考
帧
是
1
: frame->
num_references
= frame->frame_type() == kVideoFrameKey ?0 :
1
; 但是对于h264,参考
帧
最多可以是16?
为什么
在
webrtc
中
是
1
?
浏览 6
提问于2021-10-24
得票数 1
回答已采纳
2
回答
用django通道向服务器发送
webRTC
视频流
、
、
、
、
这个应用程序就是这样工作
的
。 处理后
的
框架将显示在网页上。当我在网上阅读时,人们要求我使用javascript,特别是
webRTC
来启动客户端
的
实时流。所以我找到了这个,它解释了如何用javascript在客户端机器上启动网络摄像头。现在,我
的
问题
是
如何将客户端机器上
的
javascript
中
的
每个
帧
浏览 0
提问于2018-12-17
得票数 6
1
回答
WebRTC
本机发送数据包非常慢
、
、
对于这个项目,我已经破解了
WebRTC
原生源代码(版本M60,win10 x64),以便能够为它提供一个预编码
的
H264比特流(1080
p
25,所有
帧
都编码为I
帧
)。默认情况下,
WebRTC
使用42e01f作为h264配置文件,我将其更改为640032(5级)以支持1080
p
。在h264_encoder_impl.cc
中
,我注释了编码部分,只需将输入
帧
中
的
字节复制到encoded_image_<em
浏览 7
提问于2018-08-01
得票数 0
1
回答
如何使用chrome://
webrtc
-内部测量往返时间?
、
、
、
我一直在分析使用chrome://
webrtc
-internal生成
的
JSON文件,同时在2 PCS上运行
webrtc
。 RTT
是
按
帧
浏览 23
提问于2021-04-09
得票数 0
回答已采纳
1
回答
Google chrome浏览器
的
最大比特率值
、
、
、
我有个简单
的
问题。当我使用这个设备时,我能在我
的
Chrome浏览器
中
获得所有的50 Mbit吗? 谢谢。
浏览 0
提问于2017-03-28
得票数 1
回答已采纳
1
回答
如何解决Internet Explorer 11与Ant Media Server
的
问题?
、
、
做到这一点
的
最好方法是什么? 在IE11 works中使用flowplayer播放“https://mydomain:5443/WebRTCAppEE/streams/stream
1
.m3u8”流。我认为RTMP
的
延迟更短,但它不适合我。如果我在flowplayer、ffplay或VLC中使用URL“rtmp://mydomain/WebRTCAppEE/stream
1
”。服务器端
的
配置有什么特殊之处吗?URL是否正
浏览 46
提问于2019-06-20
得票数 1
1
回答
将视频从自定义摄像头发布到antmedia服务器
、
、
、
我无法在antmedia github repository.
中
编译WebRTCTest应用程序这是我正在尝试编译
的
应用程序。 我需要测试
webRTC
上
的
实时流性能。安装程序运行
的
是
Linux操作系统,我使用gstreamer来捕获视频
帧
。 以下
是
使用案例: 使用
WebRTC
协议将从摄像头捕获
的
实时视频
帧
流式传输到反媒体。但是,我尝试编译上面链接
中
给出
的
WebRT
浏览 46
提问于2021-01-27
得票数 0
1
回答
将
帧
逐个送入
WebRTC
iOS
、
、
我正在尝试制作一个iOS应用程序,对摄像头中
的
视频进行一些预处理,然后通过
webrtc
发送出去。我使用AVCaptureVideoDataOutputSampleBufferDelegate协议对每个单独
的
帧
进行预处理,然后使用captureOutput方法捕获
帧
。现在我需要弄清楚如何在
WebRTC
上发送它。我使用
的
是
谷歌
WebRTC
库:https://
webrtc
.googlesource.co
浏览 78
提问于2020-12-11
得票数 0
2
回答
如何测量使用MSE或
WebRTC
时
的
解码性能?
、
、
、
、
对于测试,我正在考虑使用WebSocket将流推送到客户端,视频编码为分段
的
MP4。然后客户端使用(MediaSource)MSE和(MediaStream)
WebRTC
以及HTML5 <video>标签尽快解码该流。这只是一个测试,对于真实
的
用例,我
的
目标
是
实时直播流。有没有办法一
帧
一
帧
的
测量解码时间?例如,解码器解码一个
帧
需要多长时间,渲染器渲染一个
帧
?或者,我如何才能获得实时FPS?
浏览 3
提问于2019-04-28
得票数 1
1
回答
在Android本地ndk
中
渲染YUV ffmpeg框架
、
、
、
我们可以直接在安卓屏幕上呈现来自ffmpeg流输出(AV_PIX_FMT_YUV420
P
)
的
YUV
帧
而不转换为RGB格式吗?
浏览 5
提问于2014-10-16
得票数 0
回答已采纳
1
回答
chrome://
webrtc
-internal如何计算keyFramesDecoded?
、
、
、
、
我一直在分析使用chrome://
webrtc
-internal生成
的
JSON文件,同时在两台PCS上运行
webrtc
。 我查看了以验证
webrtc
-internal
是
如何计算关键
帧
速率
的
。通过查看Stats API/ ,它包含keyFramesDecoded,它表示关键
帧
的
总数,例如VP8
中
的
关键
帧
,假设我将编解码器设置为VP8。我
的</em
浏览 16
提问于2021-04-12
得票数 0
1
回答
关键
帧
需要在
webrtc
android应用程序中出现第一个错误。如何减少输入视频
的
帧数?
、
、
我们有一个运行正常
的
webrtc
android应用程序,我们使用Kurento作为媒体服务器,它以24 fps
的
速度发送视频;然而,android应用程序
中
的
输入视频流呈现出一种周期性
的
滞后,就好像前15
帧
每秒
的
处理和播放很顺利,但随后
的
15
帧
被跳过了,所以我们最终得到了一个视频,它能顺利播放几毫秒,但也会暂停几毫秒。我在logcat
中
得到了下面的输出(我在googled上搜索了它,但没有找到解决
浏览 3
提问于2018-12-28
得票数 1
回答已采纳
2
回答
不跨不同网络工作
的
即时
Webrtc
、
、
、
我正在尝试使用
Webrtc
实现一个视频会议系统,目前使用
的
是
服务我也有以下情况: 在工作场所又多了两位同事,和以前一样在同一
浏览 4
提问于2014-03-18
得票数 1
回答已采纳
2
回答
基于
WebRTC
的
视频数据同步
、
、
、
、
我想过
的
一些选择: 通过
WebRTC
DataChannel发送数据。但我不知道如何确保数据在每
帧
的
基础上
是
同步
的
。但是我没有办法确保数据通道发送
的
数据和视频通道
是
同步
的
(同样,我希望获得单个
帧
的
精度水平)。然而,即使Kurento或其他中间服务器保留视频
中
的
时间戳信息,根据以下答案,也没有从javascript获得视频时间戳
的
应用方法:。我
浏览 7
提问于2015-05-22
得票数 22
回答已采纳
1
回答
从PyAV av.VideoFrame创建HLS视频流
、
、
、
、
我希望你
是
响亮而自豪
的
。我
是
PyAV
的
新手,我正在使用aiortc for
WebRTC
MediaServer,在aiortc现场会话
中
,每个视频
帧
都有av.VideoFrame对象可用,我想实时地从这些
帧
创建HLS视频片段正如您在中所看到
的
他们使用OpenCV视频
帧
字节(通过管道传输到FFmpeg CLI )进行HLS流。我
的
问题
是
,如何使用PyAV/python来
浏览 16
提问于2021-01-24
得票数 1
2
回答
从SDP输出中提取视频
帧
、
、
、
、
有人知道如何从SDP视频输出中提取图像
帧
吗?我用
的
是
Nest电池摄像头。有线版本给了我一个RTSP流,它很容易提取
帧
。然而,电池版本给了我一个很难理解
的
SDP输出。我看过几篇关于堆栈溢出
的
文章,但没有一篇看起来太有希望了: 即使能够使用ffplay将SDP流到mp4文件
中
也是一个很好的开始。但最终,我希望运行一个python脚本,从SDP输出中提取框架。类型主机tcp类型被动生成0\r\na=candidate:
1
ssltcp 21139397
浏览 8
提问于2022-07-23
得票数 2
3
回答
WebRTC
在服务器上录制视频
、
、
、
我正在研究
WebRTC
,我打开了成千上万个关于它
的
标签。但是我仍然不知道我应该在哪里写什么代码! 我要有一个网站使用IIS4.5和asp.net 8(如果需要)。它应该有一个视频会议。但出于安全考虑,我需要在服务器
中
记录两端
的
视频。所以我想我不能使用
p
2
p
。请帮我提供一些循序渐进
的
教程,请不要再给我任何链接!(我没有更多空间打开新选项卡:D)
浏览 4
提问于2013-10-04
得票数 5
1
回答
NativeAPI崩溃
中
的
方法对等连接::SetLocalDescription
、
、
我正在尝试在用C++编写
的
服务器和Python客户机之间建立一个数据通道。当服务器尝试设置在方法"CreateAnswer“
中
创建
的
本地会话描述时,服务器崩溃并出现SIGSEGV错误 服务器端和客户端之间通过WebSocket交换SDP信息,需要打通数据通道,不能有视频和音频流这两个程序在不同
的
服务
中
工作在docker-compose下。因此不提供音频或视频设备。我从m76分支使用
WebRTC
Native API。<
1
>))(preprocess
浏览 129
提问于2019-09-12
得票数 0
回答已采纳
4
回答
处理
WebRTC
(Socket.IO)在C++服务器
中
捕获
的
视频数据
、
、
、
我想找出做以下事情
的
最佳方法:(C)将处理结果发送回客户端PC
中
的
浏览器以显示它们(实时将很好,但总延迟当然
是
预期
的
)。到目前为止,我发现
WebRTC
对于做(A) (getUserMedia()等)
是
很棒
的</em
浏览 9
提问于2014-03-10
得票数 5
回答已采纳
2
回答
WebRTC
流在第一
帧
后冻结
、
、
、
、
协议
是
这样
的
,我有一个
WebRTC
1
到
1
的
会话,它使用: Chrom*浏览器只显示视频
的
第一
帧
,然后视频冻结,以及音频。看看Chromium网络和CPU
的
使用情况,它正在接收和解码视频,但没有显示出来。这是我
的
密码: localVideoEl: 'lo
浏览 3
提问于2015-02-25
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
1分钟告诉你Java中的String为什么是不可变的?
webRTC中timing信息的使用
音视频学习--弱网对抗技术相关实践
如何优化WebRTC提升直播体验?
开源十年,WebRTC 的现状与未来
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券