腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
1
回答
wowza rtmp输入和rtmps输出
、
我有一个wowza服务器接收RMTP视频和发送RTMP视频,这是完美的工程。 现在我需要添加ssl支持,所以我配置了streamlock,并且可以很好地接收来自ffmpeg的RTMPS作为编码器,并将RTMPS发送给使用flowplayer的用户。 但我需要使它与VidiU编码器的工作,这个设备不支持RTMP协议,它只工作发送使用RTMP的视频。 然后我尝试将RTMP视频(使用VidiU)发送到服务器(启用了streamlock ),以将RTMP视频发送给用户,但它对我不起作用,我不知道在wowza中需要哪种配置才能做到这一点。有什么提示吗?
浏览 2
提问于2017-04-04
得票数 0
1
回答
通过RTMP将webRTC视频发送到服务器进行直播?
、
、
、
、
我正在我的android应用程序中实现一个实况广播。我使用webRTC进行实时视频聊天.现在我想向许多人直播聊天,我想使用Mpeg-DASH。因为视频流可以通过RTMP发送到服务器,然后用Mpeg-破折号进行广播。 因此,我想知道如何捕获本地和远程用户的媒体流,然后通过RTMP发送。我有一个工作的原型,用于通过RTMP将摄像机捕获的视频发送到服务器。但我不知道如何将相同的媒体流发送到webRTC正在使用的服务器。可能的解决办法 记录/捕捉实时聊天的屏幕,然后通过RTMP将其发送到服务器。 使服务器成为webRTC中的对等服务器,并通过Mpeg-破折号对流进行操作和广播. 我想在
浏览 9
提问于2017-03-21
得票数 3
1
回答
RTMP吞食块流的麻烦
、
、
、
、
我正在尝试为我正在开发的应用程序构建我自己的客户端RTMP库。到目前为止,一切都非常成功,我能够连接到RTMP服务器,协商握手,然后发送所有必要的数据包(FCPublish、发布等),然后从服务器上得到NetStream.Publish.Start的onStatus消息,这意味着我成功地获得了服务器,允许我开始发布我的现场视频广播。Wireshark还确认信息(/Data分组)是正确的,因为它也正确地显示在那里。 现在我遇到麻烦的地方是RTMP Chunking,第17和18页上的显示了一个消息如何分块的例子。从这个例子中,我可以看到它是根据块大小(128个字节)来分解的。对我来说,块大小是在
浏览 1
提问于2016-10-28
得票数 9
回答已采纳
1
回答
流Id参数在RTMP头中的作用是什么?
、
、
在关于RTMP 的wiki文章中,可以找到RTMP头的描述。在里面发现的一个平行体是StreamId。StreamId被描述为 构成流ID的6个最不重要的位可以取3到65599之间的值。有些值具有特殊的含义,如1,表示扩展ID格式,在这种情况下,后面将有2个字节。值2用于低级别消息,如Ping和Set客户端带宽。 开放源代码RTMP客户端FLAZR也使用这个参数(以‘channelId’命名),从它的源看,所有要由RtmpDecoder类解码的RTMP消息都应该由streamId拆分,并以不同的方式处理。 一个问题是:什么是streamId? 它不是Wowza服务器使用的经典strea
浏览 5
提问于2014-02-04
得票数 0
2
回答
为什么SPS和PPS在不同的块流标识中存在?
、
、
、
、
我和RTMP一起工作。我需要编写一个程序来捕获RTMP数据包,解析它并将RTMP视频保存在flv容器中。为此,我需要SPS和PPS,它们都是在流开始时发送的。但这些数据可能以不同的数据流发送。例如: SPS和PPS在流6中发送,视频数据在流7中发送。 SPS、PPS和视频数据出现在流7中。 如果我有3个视频流,而只有一个包含SPS和PPS的视频流,我如何知道哪一个流属于SPS和PPS?
浏览 2
提问于2017-02-17
得票数 2
回答已采纳
1
回答
如何发布用h265压缩的视频?
、
、
、
、
我设置了一个nginx服务器,我可以使用rtmp进行广播。我通过用h264压缩它来实现这一点,但我也需要用h265压缩它。rtmp和flv不支持h265。因此,您能为我提供使用h265的服务器和协议吗?如果可能的话,请开源。 编辑: okey不应该再多解释这个问题了。我可以通过客户端将视频发送到我的nginx服务器,然后在hls和dash中观看此视频。但我要做的是用一个h265小应用程序和一个像ffmpeg这样的转换器压缩这个视频,然后观看它或将它发送到另一个客户端。我找不到除了rtmp之外的任何东西来发送和接收视频。
浏览 26
提问于2019-07-18
得票数 0
2
回答
如何在负载均衡的情况下按需传输视频
、
、
、
我想找出如何负载平衡我的视频服务器。现实世界的情景是; 我有一个存储服务器,存储我所有的视频文件,几个服务器负载平衡我的http请求(工作像CDN服务)。客户端请求一个视频文件->最近的负载平衡服务器应答请求(假设它是LBS) LBS ->存储(查找视频并开始向客户端发送第一个N字节,因此它开始播放) -> LBS将文件的其余部分缓存在自己的存储上,而在下一个请求时,直接从缓存而不是从存储中为其服务。 这个设置的问题是,我想通过RTMP提供视频,但是在平衡机(它的nginx服务器)上,我不能提供虚拟文件(比如rtmp流)。 简而言之,我正在寻找一个类似于nginx服务
浏览 10
提问于2012-01-17
得票数 3
回答已采纳
1
回答
从OBS流到rtmp服务器,运行在heroku上,并使用节点媒体服务器。
、
、
、
我一直在使用react、redux、节点媒体服务器和json服务器来开发类似Twitch的应用程序。它允许用户通过将他们的OBS配置到服务器URL来直接流视频/音频,其流键等于在react应用程序中创建的流的ID。它可以在您正在查看的流的结尾URL上找到。 您可以在上查看我的完整回购 您还可以在的Heroku上查看我当前部署的站点版本。 以下是我对位于streams/rtmpserver/index.js中的节点媒体服务器的配置 const NodeMediaServer = require("node-media-server"); const HTTP_PORT = pr
浏览 0
提问于2019-08-23
得票数 6
1
回答
流媒体协议延迟测试,存在一些问题。
、
、
我做了一个实验,比较RTSP和RTMP的端到端延迟. 下面的实验是一样的。 约束 网络环境是一样的。 使用Wowza媒体流引擎作为媒体服务器。 使用VLC播放器作为流媒体播放器。 实验1。 1)使用Larix广播公司(Android),向媒体服务器发送RTSP流。 2)然后使用VLC播放器将视频流作为RTSP流进行流处理。 3)结果端到端延迟- 1.53秒 实验2。 1)与实验1-1相同。 2)与实验1-2相同,但视频流为RTMP流. 3)结果端到端延迟- 3.54秒 实验3。 1)使用Wowza Go编码器(Android),向媒体服务器发送RTMP流。 2)然后使用VL
浏览 0
提问于2018-02-09
得票数 0
2
回答
如何将Wowza服务器用于本地ios应用程序
、
是否可以使用Wowza为IOS (本机目标-C)创建视频聊天应用程序? 如何将IOS摄像头和麦克风视频/音频实时流发送到Wowza服务器? 是否可以在不为IOS使用任何RTMP库的情况下与Wowza和IOS进行聊天?
浏览 2
提问于2015-12-16
得票数 1
回答已采纳
1
回答
在ActionScript 3.0中,如何限制视频流接收端的带宽使用?
、
、
、
、
现在我正在做一个项目,主要使用ActionScript 3.0在RTMP上移动视频流(服务器端使用了一点2.0 ),我们已经有了在客户端级对这些视频流的带宽使用进行节流的功能。然而,我们只能通过调用类Camera的setQuality()方法来实现这一点,它会影响该视频流的每个接收器。现在,虽然我们确实需要一种方法来有效地设置单个接收器的带宽使用,但显然VideoDisplay、NetStream和NetConnection都几乎没有这种功能。在AS3中没有什么好的方法可以做到这一点吗?如果有办法,怎么做?谢谢! 编辑:为了清楚起见,假设视频流的发送方将其摄像机对象的质量设置为使用1兆的带宽。
浏览 7
提问于2012-09-28
得票数 0
回答已采纳
2
回答
单RTMP与免费媒体服务器和控制面板相适应的流
、
、
、
、
这就是我现在要做的: 我正在发送一个带有teradek vidiu的实时电视频道,它通过RTMP将视频发送到一个具有灵活流光服务器的AWS EC2实例,该实例几个月前配置了wmspanel (在试用阶段)。灵活的服务器对rtmp进行代码转换,并给我一个HLS (m3u8),我在网页中使用peer5 (jwplayer)。这方面的问题是,现场视频只在高清和客户端的低速连接不能看到视频,有时它口吃。 我想要的: 我想要一个每个人都可以连接的自适应流,低速看到更低的比特率视频,而高速看到高清视频。我知道我可以用wowza等服务器来完成这个任务,问题是价格问题,我想要一个免费的服务器和免费的控制面板。
浏览 77
提问于2016-05-14
得票数 1
回答已采纳
1
回答
使用Rtmp将视频流传输到流媒体服务
、
、
、
我正在尝试查找有关Node / C#如何使用RTMP向Twitch、Facebook和Youtube发送视频流的信息。输入将是不同的格式。图像、视频或网站。就像一个真正的小OBS。
浏览 10
提问于2016-11-16
得票数 2
1
回答
如何捕捉iOS摄像机并发布RTMP实时流?
、
、
、
、
我已经在iOS上完成了一个RTMP播放器,使用FFmpeg解码flv1视频和speex音频。现在我想捕获iOS摄像机,解码H.264视频和AAC音频,然后将视频和音频流发布到RTMP服务器、Red5服务器上,作为以前使用的播放器程序。我知道我应该重新编译FFmpeg,添加libx264和libaacplus以支持iOS视频和音频解码。那么如何发布RTMP实时流呢?用RTMP_Write()?RTMP_SendPacket()?请告诉我一些想法或解决方案,或者你给我看一些代码是非常慷慨的。谢谢! 参考资料:
浏览 1
提问于2014-05-30
得票数 2
1
回答
rtmp点播,如何使用simplertmp客户端连续播放多个视频文件(mp4或flv)
、
、
正如标题所示,有什么方法可以使用简单的rtmp客户端连续播放多个视频(我的rtmp服务器是wowza)?我是这样想的: 当第一个视频即将结束时,打开一个新线程,发送一个新的createStream命令和一个新的play命令,获取视频rtmp包并放入缓冲区列表中,当第一个视频结束后,播放缓冲区列表中的视频rtmp。 这种方式是可行的吗,或者有其他推荐的方法来实现它吗?任何建议我们都将不胜感激,谢谢!
浏览 19
提问于2016-08-09
得票数 0
1
回答
RTMP代理来裁剪原始视频并将其发送到另一个RTMP服务器。
、
、
、
、
我需要从RTMP流中裁剪视频,并将其发送到另一个总是更改的RTMP服务器。我的理解是,我应该使用nginx-proxy和ffmpeg,有人能帮助我如何设置它吗? 我假设我需要将流发送到像/stream/:stream-key/:next-server-ip这样的端点,用ffmpeg处理流,然后将它发送到:next-server,在后端应该使用什么语言呢?
浏览 10
提问于2020-09-26
得票数 1
回答已采纳
3
回答
如何使用iOS应用中的RTSP将视频流发送到WOWZA服务器?
、
、
、
、
我是新的捕获视频(AVFoundation)和WOWZA服务器。 我检查了许多解决方案,但没有找到任何关于“如何使用RTSP使用WOWZA服务器”的教程或库。我在GitHub上找到了一个项目GitHub,但它只在RTMP上工作。他们建议在RTSP问题上,使用live555协议。但我几乎不懂c++代码。 我的问题: 如何从AVFoundation获得视频流?现在,我正在使用AVCaptureFileOutputRecordingDelegate获取文件而不是流数据: captureOutput(_: didFinishRecordingToOutputFileAtURL:, from
浏览 7
提问于2016-04-11
得票数 3
1
回答
如何将我的视频流(来自android应用)发送到Ant媒体服务器?
、
、
我想开发安卓应用程序来发布和播放使用蚂蚁媒体服务器直播视频流。我正在使用这个存储库:https://github.com/ant-media/LiveVideoBroadcaster。但是我无法将视频流发送/发布到ant媒体服务器是RTMP URL,还是使用REST API发布视频流?请指点一下。问候
浏览 54
提问于2021-06-15
得票数 0
3
回答
在Android上不使用webview (WOWZA服务器)的实时流RTMP/RTSP播放器
、
、
、
、
我正在开发一个Android应用程序,我想在其中发布和播放一个视频. 我想要的是: 我的应用程序记录了一段视频,视频被发送到服务器。 录制的视频将同时被直播到另一个Android设备上。 我已经使用完成了第一个任务。我被困在第二项任务中。我在服务器上搜索了很多视频,但没有成功。我不想使用WebView并在其中播放视频。我想要一个RTMP播放器。此任务已在iOS中完成.我也想要同样的机器人。完成任务的链接是什么? P.S.: 我正在使用wowza服务器和RTMP流。我想播放RTMP视频(.flv)。如果没有可用的解决方案,我想切换到RTSP,为此,需要一个工作链接来跟随。 现在我
浏览 2
提问于2013-12-04
得票数 44
回答已采纳
2
回答
是否有可能压缩网络传输节点上的rtmp视频流?
、
、
、
、
我想用这样的网络做一些实验室的工作: 我想将rtmp视频流数据包从“服务器”节点传输到“客户端”节点。rtmp数据包将通过node1或node2或node3在服务器节点和客户端节点之间传输。 我是否可能在节点1/node3 2/node3 3上压缩rtmp视频流?如果可能的话,怎么做?我是否必须捕获一个节点1/node2 2/node2 3的rtmp数据包,然后压缩它们,然后将数据包从node2 1/node2 2/node2 3重新发送给客户端?我能在网络的下层(网络层/数据链路层)上做压缩工作吗? 我对此真的很好奇。如果有人能帮忙,我会非常感激的!
浏览 6
提问于2022-02-07
得票数 0
回答已采纳
1
回答
如何识别不同视频流和音频流的rtmp包
、
、
、
RTMP规范说-不同视频和音频的数据包可以通过单个连接进行多路复用和发送。我想知道如何区分两个RTMP包,以便知道数据包对应于哪个视频?就像。假设我们从服务器上发送了两个视频,即- Video1和Video2。1.如果两个视频的数据包都经过流,我们如何才能知道数据包是属于Video1还是属于Video2? 现在,如果数据包类型为3,那么必须使用谁的引用?Video1流类型0包的引用还是Video2流类型0数据包的引用? 第一件事,我想确定是-会有两个不同的连接两个视频(从客户的参考) ?? 如果是,那么我不能使用获得的数据包的端口号来识别数据包属于哪个视频吗?我想得对吗??
浏览 3
提问于2016-11-15
得票数 0
1
回答
如何在UWP中发送RTMP视频流?
、
、
、
我正在使用MediaCapture在UWP中开发,但是我找不到任何有用的解决方案。 微软的库,但它只支持Azure。 我可以从服务器播放RTMP实时视频流,但不能将视频流发送到服务器,我想知道是否有任何解决方案或库可以在UWP中发送RTMP实况流?
浏览 5
提问于2017-09-22
得票数 1
1
回答
在rtmp上发送的FLV视频包与ffmpeg对OBS流
、
、
、
我使用node-media-server npm模块托管我的rtmp服务器。我从服务器上捕获了视频包,我注意到用ffmpeg -f gdigrab -offset_x 1920 -framerate 60 -video_size hd1080 -i desktop -crf 0 -preset ultrafast -f flv rtmp://localhost流的视频包开始于 2200 0085或 2200 0084和 1200 0085,和 第一个包以1200 0084开头。 当我用OBS流到rtmp服务器时,我捕获以 2701 0000 0000 00和 第
浏览 0
提问于2018-09-11
得票数 0
回答已采纳
1
回答
NGINX streaming RTMP:无连接,无错误
、
、
、
、
我正在尝试通过RTMP从OBS studio向nginx服务器发送视频流,出现VPS问题: nginx似乎不接受URL上的输入,OBS在发送时超时 我遵循了这个教程来确保nginx拥有它所需要的一切:https://www.vultr.com/docs/setup-nginx-rtmp-on-ubuntu-14-04#Configuring_Software_to_Work_with_Nginx_RTMP 我让nginx 1.17.9在VCS (Ubuntu)上运行默认配置文件,并添加了以下RTMP: rtmp { server { listen 1935;
浏览 13
提问于2020-03-16
得票数 0
1
回答
如何将不同的视频流到同一个RTMP URL?
、
、
、
、
我正在尝试开发一个视频会议应用程序,使用Red5作为服务器,Flash和Adobe作为客户端。在学习了如何使用Flex创建一个简单的视频聊天应用程序之后,我感到困惑的是,我们如何在一个会议上将许多人的视频流到相同的rtmp url?(我的rtmp url是:)上。 现在我无法理解这里的逻辑,我需要针对不同用户的不同url,或者我可以将所有用户的视频流到同一个rtmp url中?我是一个初学者,所以请不要介意在我的问题和我的英语含糊不清。我只是需要提个醒。任何帮助都将不胜感激。
浏览 6
提问于2013-02-08
得票数 3
回答已采纳
1
回答
如何在Xamarin.forms中播放RTMP服务器地址(共享)
、
、
、
、
我想在Xamarin.forms (共享)中播放RTMP服务器地址,因为我是初学者,对Xamarin.Forms(共享)不太了解。有人能帮上忙吗?如何播放带有RTMP服务器地址的视频? 提前谢谢。
浏览 5
提问于2016-11-23
得票数 0
回答已采纳
2
回答
如何在h264中播放视频?
、
我正在尝试将我的视频流到h264中,这样我就可以通过video标记在html5页面上播放它。我发现了很多例子,展示了如何将视频文件流到rtmp流中。但我几乎找不到h264的例子。 这里是我唯一能找到的例子: ffmpeg -f dshow -i video="Virtual-Camera" -preset ultrafast -vcodec libx264 -tune zerolatency -b 900k -f mpegts udp://10.1.0.102:1234 这似乎符合我的需要。但是我不知道udp://10.1.0.102:1234是什么样的服务器。 如果它以rtm
浏览 0
提问于2018-10-11
得票数 2
回答已采纳
1
回答
将H.264数据从非DirectShow视频采集卡作为实况流发布到FMS(Red5)
、
、
、
、
我不能在这里使用FMLE(Flash Media Live Encoder),因为视频采集卡是不支持directshow的。 视频捕获卡捕获视频,然后通过卡上的剪辑将视频编码为H.264。 该卡提供了一些本机接口,以便我可以编写应用程序从该卡获取数据,并将数据发送到FMS/Red5,然后发送到FMS/Red5流式传输。 我的问题是:如何在RTMP协议中将H.264数据发送到FMS? 我已经读过RTMP规范,并且我知道如何发布直播流。 connect -> createStream -> publish -> metadata -> videodata 但我不知道我到底需
浏览 4
提问于2011-02-18
得票数 0
回答已采纳
1
回答
如何使用我从nginx服务器获得的视频数据扩展?
、
、
、
、
我的网络中有三个节点: dataServer -- node1 -- node2。我的视频数据"friends.mp4“保存在dataServer上。我将dataServer和node2都作为rtmp-nginx服务器启动。我使用node1上的ffmpeg在dataServerand上进行数据扩展,并将转换后的数据重定向到node2上的应用程序"live“。这是我对nginx.conf for node2的配置。 worker_processes 1; events { worker_connections 1024; } rtmp { server {
浏览 2
提问于2022-03-03
得票数 0
回答已采纳
1
回答
如何通过本机响应将摄像机流发送到rtmp服务器
、
、
、
、
我正在尝试构建一个实时流媒体视频应用程序。我构建了一个rtmp服务器,它可以发布和播放流。我需要一种方法来捕获移动的用户相机,并将在线流发送到我的rtmp服务器。 我在客户端使用react本机。我发现了,它在处理相机方面非常出色,但我在它们的文档中找不到任何事件/api可用于访问相机流。 另一个问题是我必须将流发送到rtmp服务器的方式。我不知道这方面的知识,所以任何帮助都将受到感谢。
浏览 0
提问于2018-09-09
得票数 6
1
回答
将RMTP流从浏览器发送到服务器(膝上型计算机摄像机)
、
、
、
、
我正在使用AWS IVS(互动视频服务)进行现场直播。IVS只接受RTMP流。但是我们从浏览器获得的视频流是WEBRTC流。如何从笔记本相机发送RTMP流?或者我们可以将WEBRTC转换为RTMP流吗?如果可能的话,请帮助使用任何语言的基本代码片段。
浏览 4
提问于2021-12-01
得票数 0
回答已采纳
1
回答
我们如何为RTMP和Videocore的流提供随机流名称( url)?
、
、
、
、
我正在为RTMP服务器(Wowza )和视频核心Lib制作应用程序代码。我给RTMP流url如下所示 [_session startRtmpSessionWithURL:@"rtmp://"andStreamKey:@"Something"]; 现在我想给出rtmp流的随机值。如果我为不存在的流输入一个随机流名(在url中),它允许我连接和流。我该怎么做?如何从我的服务器(即php )获取url,然后我将根据该URL在wowza服务器上播放该视频,是否可以在捕获每一帧的同时发送视频?
浏览 4
提问于2015-11-14
得票数 0
回答已采纳
1
回答
如何用ffmpeg和c++发布自制的流到rtmp服务器?
、
、
、
、
祝你们愉快,各位! 我正在为Windows编写一个应用程序,将捕获屏幕,并通过rtmp发送流到Wowza服务器(用于广播)。我的应用程序使用ffmpeg和Qt。我使用WinApi捕获屏幕,将buffer转换为YUV444(因为它是最简单的),并按照文件decoding_encoding.c (来自FFmpeg示例)中的描述对帧进行编码: /////////////////////////// //Encoder initialization /////////////////////////// avcodec_register_all(); codec=avcodec_find_encode
浏览 4
提问于2013-03-01
得票数 2
1
回答
是否有一种方法在两个RTMP流之间混合(取决于哪个是向上的)使用类似于FFMPEG的东西?
、
、
、
(对问题标题表示歉意,不太清楚该怎么说) 因此,我正在为本地局域网聚会开发一个交钥匙流解决方案/服务器,使用奇妙的nginx-rtmp处理来自我们的主PC的传入的RTMP流,并(希望)不间断地向to和其他类似的流服务发送一个信号。 我想要实现的主要目标之一是,如果我们不发送任何内容的话,让服务器切换到一个本地摄像头(或另一个流),这将完善我所瞄准的零停机方法。我已经研究了如何使用ffmpeg来实现这一点,并在以下方面进行了论证: ffmpeg -i "rtmp://127.0.0.1/in/stream" -i "rtmp://127.0.0.1/webcam/stre
浏览 0
提问于2014-02-18
得票数 5
1
回答
使用FFMPEG将RTMP源回流到YouTube -输出中没有视频流
、
、
、
、
我正在尝试从nginx-rtmp服务器获取.m3u8文件,并将其传递给YouTube rtmp。我相信这是可能的(例如这里:,尽管这是在同一个主机上)。我使用的命令是: ffmpeg -analyzeduration 0 -i \ http://source.rtmp.server/hls/stream.m3u8 -pix_fmt yuv420p \ -f flv rtmp://a.rtmp.youtube.com/live2/xxxx-xxxx-xxxx-xxxx 然而,输出只包含音频,YouTube不喜欢它。该命令会生成以下内容: 由于您在输出元数据中看不到任何视频流,因此流映
浏览 0
提问于2018-02-05
得票数 1
1
回答
Apache + Nginx服务器与RTMP实时流
、
、
、
、
我使用的是CWP Pro (控制网面板) 我选择了webserver = Apache + Nginx 我想安装RTMP和想要生活在我的网站上的obs工作室。 我的问题是= 即使我使用的是服务器,也需要安装吗? 最大教程/搜索结果显示了NGINX + RTMP安装指南。我也需要安装NGINX吗?或者只有RTMP模块? 安装了RTMP之后,我为流创建了url (例如rtmp://my_ip_address/live/_key),并将其添加到OBS中。开始OBS流媒体。但我被困在代码嵌入这个直播流在我的网站的html网页。我如何才能EMbed它与视频播放器谎言video.js或其他建议?
浏览 0
提问于2021-08-14
得票数 0
3
回答
Http媒体流服务器
、
、
、
、
我已经用RED5媒体服务器(RTMP)开发了视频流应用程序。而不是RTMP需要通过HTTP直播视频。 是否有开源的HTTP媒体服务器?? 有没有同时支持RTMP和HTTP的开源服务器? 提前谢谢。
浏览 5
提问于2013-12-04
得票数 8
4
回答
通过RTMP的NodeJS和RED 5媒体服务器
、
、
、
、
这更多的是一个概念性的问题,而不是一个直接的“如何做到这一点”。 通常可以在HTML5和nodeJS/binaryJS中实现类似flash的解决方案来流式传输音频(独立于我们从哪里获得流数据,例如webRTC或其他)吗?如果是这样的话,你会怎么做呢? 自2010年以来,关于stackoverflow 及其its的查询只有一次。从那时起,NodeJS和HTML5不断成长和成熟。 人们通常做的事情:当使用多媒体流(即视频或音频)到服务器时,在完全到来之前,在当前时间点绝对没有什么比更好的了--老实说,它可能会,直到99%的浏览器用户都能使用它。 将数据流式传输到服务器的一般做法是使用客户端闪存或F
浏览 99
提问于2012-10-24
得票数 61
3
回答
将视频从wowza服务器播放到ios设备
、
、
、
如何播放Wowza服务器发出的直播流,我在服务器端使用RTMP流和.FLV格式的视频。
浏览 4
提问于2013-05-31
得票数 3
1
回答
在浏览器中相对同步地托管多个本地媒体流的延迟接近于零?
、
、
、
、
我希望与一群朋友一起主持一个现场游戏流,并向一个流行的流媒体服务广播。 我希望4个参与者之间的最小延迟和最大同步。我已经在我的端设置了一个rtmp媒体服务器(使用node-media-server),参与者可以通过OBS发送他们捕获的视频,我已经为他们提供了如何在他们的端实现最低延迟的说明。 我还设置了一个关于不一致的聊天服务器。 因此,现在我有4个rtmp视频流被传送到我的媒体服务器,并通过discord组合音频馈送。 我计划编写一个简单的web应用程序,它将包含网格中的4个视频元素,以及用于我的目的的控制面板(每个视频的音量、通知、音效等),然后我在OBS中捕获它们,并将其发送到一个名为
浏览 28
提问于2020-11-24
得票数 0
1
回答
使用ffmpeg和nginx-rtmp模块将H264流转成mpeg2
、
、
、
、
我使用nginix web服务器和nginx-rtmp模块来管理以h264编码的视频流。下面是我的nginx conf: rtmp { server { listen 1935; application big { live on; exec ffmpeg -re -i rtmp://localhost:1935/$app/$name -vcodec libx264 -vprofile baseline -acodec libvo_aacenc -ac 1 -ar 441000 -f flv rtmp://lo
浏览 2
提问于2014-07-09
得票数 2
1
回答
将摄像头从浏览器流到RTMP服务器
、
我试图将浏览器的摄像头实现中的一些内容流到一个随机的RTMP服务器上。我让它工作到它每2秒向我的服务器发送一段WEBM (我相信是VP8)编码的电影片段的部分,但棘手的部分是将它从该部分发送到RTMP服务器。 对FFMPEG的一些修改表明,它可以成功地流到我想要流到的服务器,但到目前为止,我只设法让它处理常规文件。试图流blobs是不成功的,它根本不上传任何东西。它似乎也只接受用mp4编解码器编码的h264。 问题:从我的webbrowser的摄像头实现中获取原始视频数据、用h264编解码器对其进行编码并将其发送到RTMP服务器的最佳方法是什么?
浏览 0
提问于2015-05-26
得票数 3
2
回答
从Facebook视频中读取流
、
、
、
我想要创建一个服务器,为Facebook上的实时视频创建字幕。我使用谷歌语音把声音转换成文字。然而,为了做到这一点,我需要阅读facebook的直播流。 使用Facebook,使用me/live_videos,我得到以下响应: { "status": "LIVE", "stream_url": "rtmp://rtmp-api.facebook.com:80/rtmp/{id}", "secure_stream_url": "rtmps://rtmp-api.facebo
浏览 5
提问于2016-12-17
得票数 1
回答已采纳
1
回答
媒体流基础- HTTP RTMP
、
、
、
我对媒体流非常陌生,我有一些基本的疑问要澄清: 据我所知,(例如通过Apache)和RTMP流(通过Red5)之间的区别是,流服务器提供缓冲和高级控制,如查找等。对吗?可以只从Red5之类的RTMP服务器上传输闪存视频吗?如果必须流不同格式的文件,是否必须使用HTTP流?我可以使用像xuggler这样的工具来动态地转换文件并根据来自Red5服务器的请求发送吗? 我之所以提出这些疑问,是因为我必须向所有移动客户端提供流媒体服务-- iPhone、黑莓、安卓-- iPhone不支持闪存,所以选择Red5是个好主意吗?
浏览 1
提问于2011-04-30
得票数 13
1
回答
Nginx RTMP带瓶
、
、
、
我学习了关于如何从这里设置RTMP流配置文件的文档/教程:,它非常直接。但是,我不确定如何在Flask上构建我的后端,将流重定向到某个HLS/DASH视频播放器,该播放器嵌入在HTML模板中,该模板是为了响应请求特定HTTP端点的客户端而发送的。本教程展示了如何在VLC媒体播放器中本地查看,而不是如何将其嵌入到发送到客户端的HTML文件中。我该怎么做呢?作为参考,我在Heroku上托管我的网站,该网站是从这里用其Nginx设置的,,我不确定是否需要让Heroku安装额外的依赖项来设置RTMP服务器并侦听流。
浏览 2
提问于2020-06-11
得票数 5
回答已采纳
1
回答
使用DJI SDK将Phantom 4实时流到RTMP服务器
、
DJI Go应用程序最近进行了更新,因此它可以将实时视频流传输到RTMP服务器。是否可以在基于DJI Mobile SDK构建的自定义应用中实现RTMP服务器的视频直播?
浏览 1
提问于2016-09-12
得票数 0
1
回答
如何将RTMP流放入node.js wrtc中
、
、
我正在创建一个接收RTMP流并将其发送到WebRTC对等体的服务器。CAM -> RTMP -> RTMP Server -> RTMP stream To peer (node.js)我不知道如何将RTMP转移到WebRTC流中。 以下是如何从本地浏览器在webrtc上加载凸轮图像。 let localStream = await navigator.mediaDevices.getUserMedia(CONSTRAINTS); this.video.srcObject = localStream; localStream.getTracks().forEach(
浏览 90
提问于2020-01-18
得票数 0
5
回答
WebRTC和RTMP wowza
、
、
、
我正在做一个视频会议网络项目,它使用Wowza,RTMP和Flex的音频/视频在桌面浏览器上工作。现在,我想让它在平板电脑和手机浏览器上运行,并注意到WebRTC在便携设备中越来越受欢迎。我也听说过wowza是根据使用分钟数收费的,但我不想使用这样的产品,因为我们想要控制媒体服务器,就像我们对openTok服务器所做的那样。 我们的目标是为便携式设备使用WebRTC (仅用于音频和视频),这些设备可以通过某种方式与我们的RTMP服务器通信,这样我们就可以无缝地支持使用flash的旧浏览器和使用WebRTC的新浏览器。这是可能的吗?如果是这样,如何将webRTC与wowza或任何RTMP服务器集
浏览 5
提问于2013-07-15
得票数 2
1
回答
如何用Java广播HLS?
、
、
、
目前,我有一个FFMPEG命令,它接收我的网络摄像机的RTMP流(从我的web服务器访问),并生成一个主索引HLS文件,该文件引用240 p、360 p、480 p、720 p中的4个可选的代码转换索引。 我可以看到子索引,看到为每个质量生成的视频块(并播放它们)。 现在,我想使用Spring创建一个非常基本的Java服务器,它将这个hls流广播到任何访问客户端站点服务器的客户端,该客户机有一个嵌入式视频播放器(类似于videoJS)。所以我有两个服务器实例,一个是媒体服务器,它转换代码,另一个是web服务器,用来流和播放经过编码的媒体。 这个视频播放器将使用类似于videoJS的URL访问R
浏览 2
提问于2020-06-24
得票数 2
回答已采纳
1
回答
是否可以使用Weborb通过媒体服务器从iPhone进行视频直播?
、
、
、
、
我是多媒体和iOS编程的新手,我在谷歌的时候偶然发现了Weborb,它为iOS提供了RTMP库。它没有明确提到它是否可以用于通过像Red5这样的媒体服务器传输实时视频。 如果有人使用过它,请让我知道它是否可以用于从iPhone到媒体服务器的实时视频流,以及它在整个设置中的位置。它是充当媒体服务器和iPhone应用程序之间的服务器本身,还是也有自己的媒体服务器? 我还想要一些教程的链接,可以帮助我开始与RTMP流有关的真正编码到媒体服务器? 谢谢。
浏览 3
提问于2013-08-07
得票数 1
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
程序员,为你揭开直播技术的神秘面纱!
揭开RTMP播放流程的神秘面纱
视频协议学习:推流拉流都擅长的RTMP
通过网络摄像头进行人脸识别并进行视频直播
流媒体 从入门到出家
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券