TRTC 接入实时语音识别

最近更新时间:2023-11-17 09:53:01

我的收藏

概述

当用户接入实时音视频(Tencent RTC)服务后,有时会有实时语音识别需求,从而实现实时会议字幕或语音弹幕等功能。本文档帮助客户端(Android/iOS)用户在已经接入 TRTC 服务后,更好的对实时语音识别进行接入。

iOS 接入流程

1. 首先需要 接入 TRTC,跑通流程。
2. 根据实时语音识别 音频流格式要求,参考 TRTC 技术文档 设置音频流格式。
3. TRTC 接口协议 中设置音频源代理,并设置 ASR 读取音频源。
//1.TRTCAudioFrameDelegate 协议是 TRTC 获取音频源的协议,由于 ASR 识别16k或8k采样率的音频数据,所以需要设置 setAudioQuality 为 TRTCCloudDef#TRTC_AUDIO_QUALITY_SPEECH (流畅:采样率:16k;单声道;音频裸码率:16kbps)

- (void) onCapturedRawAudioFrame:(TRTCAudioFrame *)frame {//此方法为 TRTC 本地麦克风采集到的原始音频数据回调:

NSUInteger readLength = [frame.data length];
void *pcmBytes = (void *)frame.data.bytes;
[dataSource didRecordAudioData:pcmBytes length:readLength];
}
4. ASR 音频源设置为第三方,并实现具体逻辑。
接入第三方音频源需要在 ASR 接入部分实现 QCloudAudioDataSource 协议。代码示例如下:
#import<QCloudSDK/QCloudSDK.h>
//1.使用第三方外部数据源传入语音数据,自定义 data source 需要实现 QCloudAudioDataSource 协议
QDAudioDataSource *dataSource = [[QDAudioDataSource alloc] init];

//2.创建 QCloudRealTimeRecognizer 识别实例
QCloudRealTimeRecognizer *realTimeRecognizer = [[QCloudRealTimeRecognizer alloc] initWithConfig:config dataSource:dataSource];
接入 ASR 的 QCloudAudioDataSource 协议如下,协议详情。代码示例如下。
@interface QDAudioDataSource : NSObject<QCloudAudioDataSource>
@end

@implementation QDAudioDataSource
@synthesize running = _running;

//SDK 会调用此方法获取当前状态
- (BOOL)running{
return _recording;
}

//SDK 会调用 start 方法,实现此协议的类需要初始化数据源
- (void)start:(void(^)(BOOL didStart, NSError *error))completion{
_data = [[NSMutableData alloc] init];
completion(YES,nil);
}

//SDK 会调用 stop 方法,实现此协议的类需要停止提供数据
- (void)stop{
_recording = NO;
_data = nil;
}

//SDK 会调用实现此协议的对象的此方法读取语音数据
- (nullable NSData *)readData:(NSInteger)expectLength{
NSData *data = nil;
if ([_data length] >= _offset + expectLength) {
data = [_data subdataWithRange:NSMakeRange(_offset, expectLength)];
[_data replaceBytesInRange:NSMakeRange(_offset, expectLength) withBytes:NULL length:0];
}
return data;
}

//此处仅为演示,需用户自行完善音频数据源填充
- (void)didRecordAudioData:(void * const )bytes length:(NSInteger)length{
[_data appendBytes:bytes length:length];
}
@end

Android 接入流程

1. 首先需要 接入 TRTC,跑通流程。
2. 根据实时语音识别 音频流格式要求,参考 TRTC 技术文档 设置音频流格式。
3. TRTC 接口协议 里设置音频源代理,并设置 ASR 读取音频源。
//1.TRTCCloudListener.TRTCAudioFrameListener 是 TRTC 获取本地麦克风采集到的音频数据回调  由于 ASR 识别16k或8k采样率的音频数据,所以需要设置 setAudioQuality 为 TRTCCloudDef#TRTC_AUDIO_QUALITY_SPEECH (流畅:采样率:16k;单声道;音频裸码率:16kbps)
void onCapturedRawAudioFrame(TRTCCloudDef.TRTCAudioFrame trtcAudioFrame) {
dataSource.writeByte(bytesToShort(trtcAudioFrame.data));;
}
//以下方法为把 bytes 数组转成 short 数组
public static short[] bytesToShort(byte[] bytes) {
    if (bytes == null) {
        return null;
    }
    short[] shorts = new short[bytes.length / 2];
ByteBuffer.wrap(bytes).order(ByteOrder.LITTLE_ENDIAN).asShortBuffer().get(shorts);
    return shorts;
}
4. ASR 音频源设置为第三方,并实现具体逻辑。
接入第三方音频源需要在 ASR 接入部分实现 PcmAudioDataSource 接口。代码示例如下:
//1.使用第三方外部数据源传入语音数据,自定义 data source 需要实现 PcmAudioDataSource 接口
AudioDataSource dataSource = new AudioDataSource();
//2.初始化语音识别请求
final AudioRecognizeRequest audioRecognizeRequest = new AudioRecognizeRequest.Builder()
.pcmAudioDataSource(dataSource)
.build();
接入 ASR 的 PcmAudioDataSource 接口实现如下,协议详情。代码示例如下。
private ConcurrentLinkedDeque<Short> shortList = new ConcurrentLinkedDeque<>();
private static boolean first;

public class AudioDataSource implements PcmAudioDataSource { 
//向语音识别器添加数据,将长度为 length 的数据从下标0开始复制到 audioPcmData 数组中,并返回实际的复制的数据量的长度 
@Override
    public int read(short[] audioPcmData, int length) {
        short[] tempData = new short[length];
        try {
            if (!first) {
                first = true;
                SystemClock.sleep(1000);
            }
            ConcurrentLinkedDeque<Short> shorts;
            shorts = getDataList();
            if (shorts.size() < length) {
                SystemClock.sleep(300);
            }
            shorts = getDataList();
            for (int i = 0; i < tempData.length; i++) {
                tempData[i] = shorts.poll();
            }
            System.arraycopy(tempData, 0, audioPcmData, 0, tempData.length);
        } catch (Exception e) {
            return 0;
        }
        return tempData.length;
    } 
//启动识别时回调函数,用户可以在这里做些初始化的工作。
@Override
    public void start() {
    } 
//结束识别时回调函数,用户可以在这里进行一些清理工作
 @Override
    public void stop() {
    } 
//此处仅为演示,需用户自行完善音频数据源填充
public void writeByte(short[] pcmData) {
        for (short pcmDatum : pcmData) {
            shortList.add(pcmDatum);
        }
    }  
private ConcurrentLinkedDeque<Short> getDataList() {
        return shortList;
    }