我正在构建一个iPhone应用程序,通过播放以"caf“格式录制的单个吉他音符来生成随机吉他音乐。这些音符的持续时间从3秒到11秒不等,取决于持续的时间。
我最初用AVAudioPlayer来播放,在模拟器里,每分钟12点,播放第16个音符唱得很棒,但在我的手机上,当我把节奏提高了60 bpm,只播放了1/4的音符,它就像狗一样跑了起来,没有时间。我的兴高采烈是非常短暂的。
为了减少延迟,我尝试使用Apple MixerHost项目作为音频引擎的模板,通过音频单元实现回放,但在我将其连接起来并将其连接起来之后,一直出现了一个糟糕的访问错误。
经过了几个小时的努力,我放弃了这条思路,转而选择了诺沃卡因的音频引擎。
我现在碰到了一块砖墙,试图把它和我的模型连接起来。
在最基本的层次上,我的模型是一个包含NSDictionary of Note的Neck对象。
每个Note都知道吉他脖子上的字符串和烦扰,并包含自己的AVAudioPlayer。
我构建了一个彩色吉他颈,包含122个音符(6个字符串,22个frets)或144个音符(6个字符串乘以24个frets),这取决于用户首选项中选择的颈部大小。
我使用这些笔记作为我的唯一真理点,所以所有由音乐引擎生成的标量笔记都是指向这个彩色音符桶的指针。
@interface Note : NSObject <NSCopying>
{
NSString *name;
AVAudioPlayer *soundFilePlayer;
int stringNumber;
int fretNumber;
}我总是从所选音阶的根音符或和弦开始播放,然后生成要播放的音符,所以我总是在生成音符之后播放一个音符。这样,下一个要玩的笔记总是排好队准备出发。
这些Notes的回放控制是通过以下代码实现的:
- (void)runMusicGenerator:(NSNumber *)counter
{
if (self.isRunning) {
Note *NoteToPlay;
// pulseRate is the time interval between beats
// staticNoteLength = 1/4 notes, 1/8th notes, 16th notes, etc.
float delay = self.pulseRate / [self grabStaticNoteLength];
// user setting to play single, double or triplet notes.
if (self.beatCounter == CONST_BEAT_COUNTER_INIT_VAL) {
NoteToPlay = [self.GuitarNeck generateNoteToPlayNext];
} else {
NoteToPlay = [self.GuitarNeck cloneNote:self.GuitarNeck.NoteToPlayNow];
}
self.GuitarNeck.NoteToPlayNow = NoteToPlay;
[self callOutNoteToPlay];
[self performSelector:@selector(runDrill:) withObject:NoteToPlay afterDelay:delay];
}
- (Note *)generateNoteToPlayNext
{
if ((self.musicPaused) || (self.musicStopped)) {
// grab the root note on the string to resume
self.NoteToPlayNow = [self grabRootNoteForString];
//reset the flags
self.musicPaused = NO;
self.musicStopped = NO;
} else {
// Set NoteRingingOut to NoteToPlayNow
self.NoteRingingOut = self.NoteToPlayNow;
// Set NoteToPlaNowy to NoteToPlayNext
self.NoteToPlayNow = self.NoteToPlayNext;
if (!self.NoteToPlayNow) {
self.NoteToPlayNow = [self grabRootNoteForString];
// now prep the note's audio player for playback
[self.NoteToPlayNow.soundFilePlayer prepareToPlay];
}
}
// Load NoteToPlayNext
self.NoteToPlayNext = [self generateRandomNote];
}
- (void)callOutNoteToPlay
{
self.GuitarNeck.NoteToPlayNow.soundFilePlayer.delegate = (id)self;
[self.GuitarNeck.NoteToPlayNow.soundFilePlayer setVolume:1.0];
[self.GuitarNeck.NoteToPlayNow.soundFilePlayer setCurrentTime:0];
[self.GuitarNeck.NoteToPlayNow.soundFilePlayer play];
}每个Note的AVAudioPlayer按以下方式加载:
- (AVAudioPlayer *)buildStringNotePlayer:(NSString *)nameOfNote
{
NSString *soundFileName = @"S";
soundFileName = [soundFileName stringByAppendingString:[NSString stringWithFormat:@"%d", stringNumber]];
soundFileName = [soundFileName stringByAppendingString:@"F"];
if (fretNumber < 10) {
soundFileName = [soundFileName stringByAppendingString:@"0"];
}
soundFileName = [soundFileName stringByAppendingString:[NSString stringWithFormat:@"%d", fretNumber]];
NSString *soundPath = [[NSBundle mainBundle] pathForResource:soundFileName ofType:@"caf"];
NSURL *fileURL = [NSURL fileURLWithPath:soundPath];
AVAudioPlayer *audioPlayer = [[AVAudioPlayer alloc] initWithContentsOfURL:fileURL error:nil];
return notePlayer;
}这就是我来的地方--一个种植者。
根据诺沃卡·吉顿的网页..。
播放音频
Novocaine *audioManager = [Novocaine audioManager];
[audioManager setOutputBlock:^(float *audioToPlay, UInt32 numSamples, UInt32 numChannels) {
// All you have to do is put your audio into "audioToPlay".
}];但是在下载的项目中,使用以下代码加载音频.
// AUDIO FILE READING OHHH YEAHHHH
// ========================================
NSURL *inputFileURL = [[NSBundle mainBundle] URLForResource:@"TLC" withExtension:@"mp3"];
fileReader = [[AudioFileReader alloc]
initWithAudioFileURL:inputFileURL
samplingRate:audioManager.samplingRate
numChannels:audioManager.numOutputChannels];
[fileReader play];
fileReader.currentTime = 30.0;
[audioManager setOutputBlock:^(float *data, UInt32 numFrames, UInt32 numChannels)
{
[fileReader retrieveFreshAudio:data numFrames:numFrames numChannels:numChannels];
NSLog(@"Time: %f", fileReader.currentTime);
}];这里是我真正开始感到困惑的地方,因为第一个方法使用float,第二个方法使用URL。
如何将"caf“文件传递给浮点数?我不知道如何实施诺沃卡因--它在我的脑海中仍然是模糊的。
我希望有人能帮我解决以下问题.
发布于 2012-12-26 23:10:17
诺沃卡因消除了手动设置RemoteIO AudioUnit的需要,从而使您的生活更加轻松。这包括必须痛苦地填充一堆CoreAudio结构,并提供一堆回调,比如这个音频进程回调。
static OSStatus PerformThru(void *inRefCon, AudioUnitRenderActionFlags *ioActionFlags, const AudioTimeStamp *inTimeStamp, UInt32 inBusNumber, UInt32 inNumberFrames, AudioBufferList *ioData);
相反,Novocaine在它的实现中处理这个问题,然后调用您的块,然后通过这样做来设置。
[audioManager setOutputBlock: ^(float *audioToPlay, UInt32 numSamples, UInt32 numChannels){} ];
无论你写什么给audioToPlay,都会被播放。
[fileReader retrieveFreshAudio:data numFrames:numFrames numChannels:numChannels]插入块中,如示例代码所示。每次调用您的块时,AudioFileReader都会从磁盘抓取和缓冲一段音频,并将其放入audioToPlay中,然后播放。这样做有一些缺点。对于简短的声音(如你的吉他声音,我假设),反复调用retrieveFreshAudio是一个表演热门。通常情况下,对整个文件执行同步的连续读取进入内存是一个更好的主意(对于短声音而言)。诺沃卡因目前还没有提供一种方法来做到这一点。要做到这一点,您必须使用ExtAudioFileServices。Apple示例项目MixerHost详细介绍了如何做到这一点。#include ing C++标头中对#import进行重命名时才会重命名为C++。float *guitarC,*guitarE,*guitarG,*guitarB; (jazzy CMaj7 chord w00t),并想把它们混合起来1秒,然后用单曲回放:[audioManager setOutputBlock:^(浮点数*数据,UInt32 numFrames,UInt32 numChannels){静态int计数= 0;for(int i=0;ivDSP\_vadd来增加性能。datacount = (guitarCcount + guitarEcount + guitarGcount + guitarBcount) * 0.25;if(++count >= 44100) count = 0;//播放混合1秒}];
performSelector或在运行循环或线程上调度的任何机制都不能保证精确。例如,当CPU负载波动时,您可能会遇到计时不正常的情况。使用音频块,如果你想要样本准确的时间。https://stackoverflow.com/questions/13291119
复制相似问题