腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
实现网络广播:尝试在c#中打开'.au‘文件
、
、
、
这需要一个
服务器
不断地播放
音频
文件,每当客户请求到达时,
服务器
就
创建
一个线程,将
音频
文件传递给用户。当
服务器
启动时,生成一个线程,该线程继续
从
音频
文件写入全局
缓冲区
空间,用户对应的
缓冲区
继续
从
全局
缓冲区
空间读取
音频
文件,并继续以“块”的形式发送
音频
文件给用户。用户试图通过‘/dev/
音频
’的帮助播放
音
浏览 1
提问于2014-11-09
得票数 1
回答已采纳
2
回答
如何将getUsermedia
音频
流转换为blob或
缓冲区
?
、
、
、
、
我
从
getUserMeda获取
音频
流,然后将其转换为blob或
缓冲区
,并在
音频
开始时将其发送到
服务器
,我正在使用socket.io将其发送到
服务器
,如何将
音频
纵隔转换为
缓冲区
?socket.emit("sendaudio", media);function(e){ }当流来自getusermedia函数时,如何将流转换为
缓冲区
并将其发送到node.js<e
浏览 3
提问于2015-05-30
得票数 6
回答已采纳
1
回答
如何使用python将
音频
缓冲区
传递到语音到文本服务
、
、
我正在使用蔚蓝的语音文字服务,使用python处理大量的
音频
。为了处理
音频
,以下是执行的步骤- 我将
音频<
浏览 4
提问于2021-03-03
得票数 1
回答已采纳
1
回答
在不使用SIP的情况下传输实时Android
音频
、
、
、
、
我希望实时传输
音频
从
我正在工作的Android应用程序到
服务器
,以类似于婴儿监视器功能的方式(单向收听)。 我
创建
了一个测试应用程序,它使用SIP在客户端和
服务器
应用程序之间发起VOIP呼叫。我曾尝试将设备麦克风中的
音频
录制到
缓冲区
中,然后通过HTTP对象将
缓冲区
分块发送到
服务器
,然后重新组合
音频
进行播放,但效果很差。对于如何将Android设备上的实时
音频
流传输到
服务器
应用程序中
浏览 0
提问于2013-02-14
得票数 0
回答已采纳
1
回答
利用Swift实现AV录音机中的队列服务
、
、
、
是否有可能在AVRecorder框架中
创建
一个类似于AudioQueue服务的
缓冲区
概念。在我的应用程序中,我需要捕获
音频
缓冲区
并通过Internet发送它。
服务器
连接部分已经完成,但我想知道是否有一种方法可以在前台连续录制语音,并在后台使用Swift将此
音频
缓冲区
逐个传递给
服务器
。感谢您的评论。
浏览 0
提问于2016-10-04
得票数 1
1
回答
A帧中的流
音频
、
、
我正在建立一个多用户体验在A帧使用NAF,我有一些位置
音频
包含音乐轨道在不同的地点的场景。我试图弄清楚是否有可能让所有连接的用户同时收听音乐。这是非常重要的,他们是定位的,因为我需要在现场的几个
音频
源。现在,当你进入体验时,轨道就开始了,所以当每个人进入现场时,他们都会从一开始就听到它们。这是我现在使用的文件: 我试过用广播组件,但没成功。我想尝试一种解决办法,用一个抽搐流和隐藏视频,试图将它投射到一个原始,但也没有工作到目前为止(只是设法将它附加到一个div现场,我可以隐藏视频,但
音频
永远不会是定位的)。这里是我尝试过的文件(不是联网的,
浏览 5
提问于2020-05-26
得票数 5
1
回答
用NSOutputStream在iPhone上录制
音频
并通过网络发送
、
、
、
、
我正在编写一个iPhone应用程序,它需要从内置麦克风录制
音频
,然后将
音频
数据发送到
服务器
进行处理。我的第一个想法是通过
音频
队列回调将数据发送到
服务器
。然后,我考虑缓冲
从
音频
队列返回的数据,
浏览 0
提问于2010-03-15
得票数 2
回答已采纳
1
回答
当
缓冲区
为空时处理AVQueuePlayer
、
、
我想知道如何处理播放的
音频
文件
从
服务器
使用AVQueuePlayer当
缓冲区
是空的。我通过KVO接收
缓冲区
是空的,我不确定我应该做什么。当设备连接到低带宽时,就会发生这种情况。一旦带宽好了,我可以在
缓冲区
中获取
音频
数据吗? 谢谢。
浏览 1
提问于2013-04-16
得票数 0
1
回答
在目标C中为实时
音频
和视频广播
创建
一个rtsp客户端
、
、
、
、
我正在尝试
创建
一个RTSP客户端,用于现场广播
音频
和视频。我修改了链接的代码,并能够正确地将视频广播到
服务器
。但是现在我在播放
音频
部分时遇到了一些问题。在链接示例中,代码的编写方式是将视频数据写入文件,而不是
从
文件中读取数据并将NALU的视频数据包上载到RTSP
服务器
。 对于
音频
部分,我不知道如何继续下去。现在,我尝试的是
从
麦克风中获取
音频
缓冲区
,而不是通过添加RTP头和ALU将其直接广播到
服务器
。
浏览 0
提问于2015-08-27
得票数 3
回答已采纳
1
回答
检查
音频
缓冲器的声音
、
、
我有一个程序,我记录24/7,一个1.5秒的
音频
缓冲器
从
麦克风。现在,不是将
缓冲区
(根本没有声音)发送到
服务器
,这只会使它更滞后,浪费带宽,我想检查
缓冲区
中是否有声音。= 8000;所以,我有一个短的ints阵列,它有8000个单元,用来存储
音频
缓冲区
.现在,
从
与Visual调试器的检查中,在我将麦克风
音频
捕获到
缓冲区
后,<
浏览 1
提问于2014-04-11
得票数 1
回答已采纳
2
回答
iOS:使用
音频
单元播放RTP数据包
、
我正在开发VoIP应用程序,需要播放来自RTP数据包的数据,这些数据包由
服务器
每20 ms发送一次。( a)
音频
单元
从
我的
缓冲区
读取的速度比
从
RTP
浏览 1
提问于2016-04-07
得票数 4
回答已采纳
1
回答
从
服务器
创建
音频
缓冲区
必须从头开始构建一个
服务器
,该
服务器
获取
音频
文件并通过流将其发送给多个最终用户。我已经研究了流和
缓冲区
,并对通过
缓冲区
向客户端发送文本数据有了一些基本的想法,但在我的场景中,当用户端接收到
缓冲区
时,我还需要开始播放
音频
。
浏览 18
提问于2020-07-16
得票数 0
回答已采纳
1
回答
小于AudioRecord的minBufferSize的记录
缓冲区
、
、
所以我用AudioRecord和DatagramSocket制作了一个非常基本的演示安卓应用程序,还有一个非常简单的C++程序,用一个很小的循环
缓冲区
来播放接收到的
音频
。(延迟不到50 as ),但经过几次测试后,我得出的结论是,尽可能快地播放AudioRecord的
缓冲区
并不是一个最佳解决方案,因为它会导致
音频
(__overflows/overwrite中的空白,以及点击和
音频
被剪切的
音频
10 ms,解决了先例场景中的问题,但将总延迟增加到40 +10=50 ms,如果我需要
浏览 0
提问于2021-08-16
得票数 1
回答已采纳
1
回答
将
音频
缓冲区
从
Python脚本转移到Go
服务器
?
、
、
、
、
我是一个初学者,试图找到一种在本地
服务器
上流式传输
音频
的方法。我有一个Python脚本,它从机器人的麦克风
创建
一些二进制数据,我想将这些数据发送到我
创建
的本地Go
服务器
上显示。但是,
从
Python脚本上传
音频
缓冲区
的最简单方法是什么呢?我如何检索这个原始的二进制数据,以便它可以
从
web应用程序中流式传输? 非常感谢。
浏览 8
提问于2017-07-10
得票数 0
1
回答
如何
从
音频
标记中
创建
音频
缓冲区
?
我可以以某种方式使用加载的
音频
标记来
创建
音频
缓冲区
吗? 我知道web有一个可以用来
创建
音频
缓冲区
的decodeAudioData方法,但是它不接受
音频
标记。如何获取
音频
标记,并使用它
创建
一个
音频
缓冲区
,可以由源节点播放?
浏览 0
提问于2015-03-16
得票数 1
回答已采纳
2
回答
在录制的同时实时上传
音频
剪辑?
、
、
、
如何在录制过程中将
音频
片段实时上传到
服务器
?基本上,我的要求是上传一个
音频
剪辑作为块/包,而它的录制。我已经使用IQAudioRecorderController 完成了录制部分。它录制
音频
并保存到TemporaryDirectory。 我想知道如何在不保存
音频
剪辑的情况下实时上传。
浏览 0
提问于2015-05-05
得票数 14
1
回答
将blob文件发送到
服务器
、
、
、
我试图发送一个
音频
记录到
服务器
,并将其保存为.wav。我在前端使用角,在
服务器
上使用.net核。我能够录制,然后做一个“
音频
/wav”类型的斑点。为了将其发送到
服务器
,我将其转换为数组
缓冲区
,然后将数组
缓冲区
转换为base64字符串,并将其发送给控制器。 在
服务器
端,当我将这些字节(
从
基64提取数组
缓冲区
后)写入wav文件时,我无法播放它。
浏览 0
提问于2018-08-27
得票数 5
回答已采纳
1
回答
将串流
音频
缓冲区
放入一个文件并存储它。
、
、
、
、
我使用Google语音识别节点
服务器
上的流
音频
(来自麦克风)。同时,我想将流媒体
音频
存储到一个文件中。由于流式识别是在块
缓冲区
上操作的,我如何组合所有
缓冲区
并将其存储为单个
音频
文件?我使用的实际代码来自于,其中
服务器
端的
音频
编码定义为const sampleRateHertz = 16000;
浏览 9
提问于2022-05-17
得票数 0
1
回答
使用offlineAudioContext对捕获的
音频
流进行重采样
、
、
我看到了使用offlineAudioContext对固定
缓冲区
中的
音频
进行重采样的页面。有没有办法重采样流中的
音频
?我想做的是
从
麦克风捕获
音频
,重新采样到低比特率,并实时上传到我们的
服务器
。
浏览 7
提问于2016-04-12
得票数 0
1
回答
Web
音频
API
缓冲区
的控制回放
、
我希望能够将
音频
输入记录到
缓冲区
中,并像普通的<audio>标记一样用控件重放它。是否可以控制播放(暂停、播放、跳过、擦洗等)?而不是下载,录音后,我希望能够使用标准的
音频
控件来播放它。我不确定
缓冲区
是否打算以这种方式使用。 如果这是不可能的,我是否需要首先将该
缓冲区
转换为
音频
文件(ogg/mp3/wav)?为了提供更多的上下文,假设
创建
的应用程序就像一个带有
音频
输入的GarageBand类型程序,可以在录制之后播放和编
浏览 2
提问于2013-10-09
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Meta:但是这个可以从音频文件创建图像的新 AI 是什么?
验证不当会导致缓冲区溢出
Icecast 流媒体服务器中存在漏洞,导致在线电台易受攻击
15.4 InnoDB Architecture
Node Buffers 完整指南
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券