腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
OS
X
/
iOS
-
使用
AudioConverterFillComplexBuffer
进行
缓冲区
的
采样率
转换
iphone
、
macos
、
core-audio
、
sample-rate
、
audio-converter
输入缓冲器可以具有各种
采样率
。我
使用
单个音频单元进行输出。我
的
想法是
转换
缓冲区
并在将它们发送到音频单元之前混合它们。只要输入缓冲器具有与输出音频单元相同
的
属性(
采样率
、通道计数等),一切都可以正常工作。因此,混合部分起作用了。 但是,我遇到了
采样率
和通道数
转换
的
问题。据我所知,这是
使用
音频
转换
器服务API最容易做到
的
。我已经成功地构造了一个
转换
器
浏览 0
提问于2011-07-07
得票数 9
回答已采纳
1
回答
AudioToolBox
AudioConverterFillComplexBuffer
实现文件不存在
ios
、
core-audio
、
audiounit
、
audiotoolbox
、
remoteio
我正在
使用
Audio Unit RemoteIO
的
实时音频渲染,我需要进行
采样率
转换
,以确保我
的
渲染是与硬件规格相同
的
采样率
。例如:iPhone 12
的
采样率
为48 but,而iPhone 8
的
采样率
为44.1 but。 为了实现这个
采样率
转换
,我
使用
了
AudioConverterFillComplexBuffer
方法。为了确保
浏览 46
提问于2021-07-16
得票数 1
回答已采纳
2
回答
HDMI上
的
iOS
音频--如何处理48
iOS
的
采样率
?
ios
、
core-audio
我注意到,当我
的
应用程序通过HDMI到某个型号
的
电视时,它
的
声音是“乱七八糟
的
”。在我看来,这个问题与这台电视正在寻找48千赫
的
音频数据有关。以下是一些问题: RemoteIO是否采用它输出
的
任何设备
的
采样率
?如果我通过HDMI发送音频到一个要求48‘s
的
设备,我
的
RemoteIO回调
缓冲区
会变成48千赫吗?是否有什么办法可以迫使RemoteIO仍然考虑44.1khz,并且足够聪明地在将数据交给设
浏览 0
提问于2011-11-07
得票数 5
1
回答
Swift中音频
转换
(MP3到PCM)
swift
、
core-audio
、
ios8
我
的
工作是移植流媒体音频播放器到斯威夫特。我需要将MP3流音频
转换
到PCM
缓冲区
,然后再
使用
AVAudioEngine。我注意到Swift中缺少function(
AudioConverterFillComplexBuffer
)到PCM
转换
器MP3。 如何快速编写代码进行音频
转换
?
浏览 9
提问于2014-06-20
得票数 4
2
回答
将IeeeFloat
缓冲区
中
的
音频数据
转换
为
缓冲区
中
的
PCM
c#
、
naudio
、
pcm
、
wasapi
我
使用
NAudio捕获声音输入,输入显示为一个包含IeeeFloat格式
的
声音信息
的
缓冲区
。 现在我在
缓冲区
中有了这些数据,我想以不同
的
采样率
将其
转换
为PCM。我已经知道如何从IeeeFloat
转换
到PCM,也在单声道和立体声之间
转换
。
转换
采样率
是一个困难
的
问题。是否有任何解决方案,最好
使用
NAudio,可以将IeeeFLoat
缓冲区</
浏览 71
提问于2017-03-02
得票数 0
回答已采纳
1
回答
AudioConverterRef
采样率
转换
(
iOS
)
ios
、
audiounit
、
novocaine
我写了一个voip应用程序,它
使用
"novocaine“库来录制和回放声音。我将
采样率
设置为8 8kHz。.我知道设置首选硬件
采样率
不能保证实际
的
硬件
采样率
会改变,但它适用于除iPhone6s和iPhone6s+之外
的
所有设备(当路由更改为扬声器时)。
使用
iPhone6s(+)和扬声器路径,我可以从麦克风接收到48 and
的
声音。所以我需要以某种方式将这个48 kHz
的
声音
转换
为8 kHz。我
使用<
浏览 6
提问于2016-01-20
得票数 4
1
回答
有没有人注意到
iOS
11内部
的
音频
转换
器服务发生了变化?
ios
、
core-audio
我
的
应用程序是
使用
音频
转换
器服务来
转换
音频从44.1千赫到48千赫(16位线性单声道),
使用
AudioConverterFillComplexBuffer
。在将
iOS
升级到11.0 (或者可能是11.4)之后,音频包含“噪声”,这是由于回调在
缓冲区
的
“边缘”返回零值
的
样本(不确定是第一个样本还是最后一个样本) 有没有人知道或注意到任何变化?多年来,它一直运行良好,在运行
iOS
9.
x</em
浏览 8
提问于2018-07-26
得票数 0
回答已采纳
1
回答
基于核心音频
的
iOS
和OSX音频驱动程序
ios
、
macos
、
core-audio
是否可以为
iOS
和OSX提供基于核心音频
的
音频驱动桥接器
的
通用实现?或者
iOS
的
Core与OSX
的
Core有什么不同?音频桥只需要支持以下方法: 话筒回调在
浏览 0
提问于2015-07-13
得票数 0
1
回答
CoreAudio:如何检索原始数据
的
实际
采样率
?
ffmpeg
、
core-audio
当试图在mp4容器中播放AAC内容时,在mp4容器中发现
的
报告抽样率似乎是实际抽样率
的
一半。 它看起来是24千赫而不是48千赫。
使用
FFmpeg AAC解码器,只需
使用
以下方法解码音频包,就可以检索实际
采样率
。
使用
CoreAudio解码器,我将
使用
AudioConverterRef设置输入和输出AudioStreamBasicDescription并调用
AudioConverterFillComplexBuffer
当
转换
器执行所有必要
浏览 1
提问于2014-08-08
得票数 1
回答已采纳
1
回答
如何
使用
audioConverterFillComplexBuffer
及其回调?
macos
、
core-audio
我需要一步一步地了解如何
使用
audioConverterFillComplexBuffer
及其回调。不,别让我看苹果
的
文件。我做他们说
的
每一件事,
转换
总是失败
的
。不,不要告诉我去寻找
使用
中
的
audioConverterFillComplexBuffer
及其回调
的
例子--我重复了十几个这样
的
例子,包括逐行和修改,而且
转换
总是失败
的
。不,输入数据没有任何问题。不,这不
浏览 33
提问于2013-01-10
得票数 14
1
回答
转换
后
的
MP3格式不支持11025和22050
采样率
iphone
、
ios
、
objective-c
、
avaudiosession
我
使用
LAME编码器将Caf
转换
为Mp3格式。我给出
的
采样率
是11025。LAME编码器将caf
转换
为mp3。但
转换
后
的
mp3文件会产生额外
的
噪音和持续时间。该问题与22050
采样率
相同。但它成功地工作于44100采样rate.Is,有任何方法可以更改11025和22050
采样率
的
mp3
缓冲区
大小。
浏览 2
提问于2013-08-01
得票数 4
1
回答
iPhone:
使用
AudioConverterFillComplexBuffer
将32 PCM编码为96Kbit AAC时出现问题
iphone
、
ios
、
audio
、
encoding
、
aac
有没有人在iPhone/
iOS
上成功地将32 had
转换
为96Kbit AAC?AudioStreamBasicDescription descPCMFormat; descPCMFormat.mSampleRate有多达20次对
AudioConverterFillComplexBuffer
的
调用引发
浏览 7
提问于2011-07-22
得票数 4
1
回答
AudioQueue捕获和返回不同
的
缓冲区
大小
iphone
、
c
、
audioqueue
我有一个基于AudioQueue
的
应用程序几乎可以完美地工作。然而,我遇到了一个问题。当我调用AudioQueueAllocateBuffer时,我特别请求
缓冲区
大小为512 (因为我正在对数据执行快速傅立叶变换)。然而,当回调触发时,我发现有时我得到
的
缓冲区
大小小于512。这是令人气愤
的
。我唯一
的
解决方案是设置传入数据
的
某种内部缓冲来解决这些问题吗?为什么我为分配
缓冲区
指定了一个值,然后iPhone返回给我不同数量
的
样本? 任何帮助
浏览 0
提问于2011-09-27
得票数 2
回答已采纳
1
回答
Android上最低级别的实时麦克风数据访问
android
、
audio
、
real-time
、
microphone
、
low-level
我刚刚写了一些
iOS
代码,它
使用
音频单元以硬件
采样率
从麦克风获得单声道浮点流。但我至少能够
使用
硬件
采样率
(因此我可以确定不会因为软件重新采样而丢失任何信息)。此外,我还可以设置尽可能小
的
缓冲区
大小,以便实现最小
的
延迟。我怎么才能到那根电线呢? PS还没有人提到它,但它似乎可以在JNI级别上工作。
浏览 12
提问于2018-03-03
得票数 7
1
回答
iPhone 4可实现
的
最低往返音频延迟是多少?
iphone
、
ios
、
audio
使用
iPhone 4/
iOS
4.2时,输入->输出音频通过
的
最低延迟是多少?我只想从麦克风中获取输入,并以最小
的
延迟在耳机上播放。如果可能的话,我想知道理论上
的
最小值和实际观察到
的
最小值。
浏览 1
提问于2011-10-14
得票数 8
回答已采纳
2
回答
我如何
使用
AVAudioPlayer更快地播放音频*和*更高
的
音调?
ios
、
objective-c
、
core-audio
、
avaudioplayer
、
openal
问题: 是否有方法从AVAudioPlayer对象中提取线性PCM音频数据,
使用
不同
的
iOS
框架应用
采样率
转换
,并将产生
的
音频数据填充到新
的
AVAudioPlayer对象中,然后该对象可以正常播放?尤其是kAudioConverterSampleRateConverterComplexity_Mastering,kAudioConverterQuality_Max和
AudioConverterFillComplexBuffer
因此,这个音频
转换
浏览 4
提问于2014-04-16
得票数 9
2
回答
有没有一维向量重采样
的
vDSP函数?
iphone
、
objective-c
、
macos
、
fft
、
accelerate-framework
我希望能够
使用
向量作为包络,将fft均衡应用于大块
的
声音,大小不一。这并不是说我自己不能实现一些东西,但如果有一个vDSP函数,它可能会比我能想到
的
任何东西都快得多。这是相关
的
,因为这
浏览 1
提问于2012-12-30
得票数 0
1
回答
安卓AudioRecord初始化延迟
android
、
audio
、
delay
、
fft
、
audiorecord
下面是我正在处理
的
相关代码
的
示例:recorder.startRecording();publicsetupAudio:~10 然而,只有来自星系连接
的
数据是可用
的
为了我
的
应用程序,我必须能够尽快获得音频数据。对于当前
的
值,
浏览 3
提问于2013-09-03
得票数 4
回答已采纳
1
回答
具有insz错误
的
AudioConverterConvertBuffer问题
iphone
、
audio
、
formatting
、
pcm
LPCM
缓冲区
中提取音频声道(左声道或右声道),使其成为输出格式
的
单声道。要
转换
的
一些逻辑代码如下SInt32 channelMap[1] = {0};这是在while循环中
转换
缓冲区
AudioBufferListSometh
浏览 0
提问于2011-01-10
得票数 0
1
回答
将Mac应用程序移植到iPhone
c
、
ios
、
macos
、
core-audio
我有一个用于Mac
的
应用程序。&size, &buff_size) == noErr)我认为音频会话服务在这种情况下会很有用,但我在引用中找不到可以让我获得
缓冲区
大小
的
函数
浏览 0
提问于2011-11-22
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券