本项目使用了EcapaTdnn、ResNetSE、ERes2Net、CAM++等多种先进的声纹识别模型,不排除以后会支持更多模型,同时本项目也支持了MelSpectrogram、Spectrogram、MFCC、Fbank等多种数据预处理方法,使用了ArcFace Loss,ArcFace loss:Additive Angular Margin Loss(加性角度间隔损失函数),对应项目中的AAMLoss,对特征向量和权重归一化,对θ加上角度间隔m,角度间隔比余弦间隔在对角度的影响更加直接,除此之外,还支持AMLoss、ARMLoss、CELoss等多种损失函数。
源码地址:VoiceprintRecognition-PaddlePaddle
使用环境:
模型论文:
模型 | Params(M) | 预处理方法 | 数据集 | train speakers | threshold | EER | MinDCF |
---|---|---|---|---|---|---|---|
CAM++ | 7.5 | Fbank | CN-Celeb | 2796 | 0.25 | 0.09485 | 0.56214 |
ERes2Net | 8.2 | Fbank | CN-Celeb | 2796 | 0.22 | 0.09637 | 0.52627 |
ResNetSE | 10.7 | Fbank | CN-Celeb | 2796 | |||
EcapaTdnn | 6.7 | Fbank | CN-Celeb | 2796 | 0.25 | 0.10465 | 0.58521 |
TDNN | 3.2 | Fbank | CN-Celeb | 2796 | 0.23 | 0.11804 | 0.61070 |
Res2Net | 7.2 | Fbank | CN-Celeb | 2796 | 0.18 | 0.14126 | 0.68511 |
ERes2Net | 8.2 | Fbank | 其他数据集 | 20W | 0.36 | 0.02939 | 0.18355 |
CAM++ | 7.5 | Flank | 其他数据集 | 20W | 0.29 | 0.04768 | 0.31429 |
说明:
使用pip安装,命令如下:
建议源码安装,源码安装能保证使用最新代码。
配置文件中默认使用的是Fbank预处理方法,如果要使用其他预处理方法,可以修改配置文件中的安装下面方式修改,具体的值可以根据自己情况修改。如果不清楚如何设置参数,可以直接删除该部分,直接使用默认值。
使用train.py
训练模型,本项目支持多个音频预处理方式,通过configs/ecapa_tdnn.yml
配置文件的参数preprocess_conf.feature_method
可以指定,MelSpectrogram
为梅尔频谱,Spectrogram
为语谱图,MFCC
梅尔频谱倒谱系数。通过参数augment_conf_path
可以指定数据增强方式。训练过程中,会使用VisualDL保存训练日志,通过启动VisualDL可以随时查看训练结果,启动命令visualdl --logdir=log --host 0.0.0.0
训练输出日志:
VisualDL页面:
训练结束之后会保存预测模型,我们用预测模型来预测测试集中的音频特征,然后使用音频特征进行两两对比,计算EER和MinDCF。
输出类似如下:
下面开始实现声纹对比,创建infer_contrast.py
程序,编写infer()
函数,在编写模型的时候,模型是有两个输出的,第一个是模型的分类输出,第二个是音频特征输出。所以在这里要输出的是音频的特征值,有了音频的特征值就可以做声纹识别了。我们输入两个语音,通过预测函数获取他们的特征数据,使用这个特征数据可以求他们的对角余弦值,得到的结果可以作为他们相识度。对于这个相识度的阈值threshold
,读者可以根据自己项目的准确度要求进行修改。
输出类似如下:
在上面的声纹对比的基础上,我们创建infer_recognition.py
实现声纹识别。同样是使用上面声纹对比的infer()
预测函数,通过这两个同样获取语音的特征数据。 不同的是笔者增加了load_audio_db()
和register()
,以及recognition()
,第一个函数是加载声纹库中的语音数据,这些音频就是相当于已经注册的用户,他们注册的语音数据会存放在这里,如果有用户需要通过声纹登录,就需要拿到用户的语音和语音库中的语音进行声纹对比,如果对比成功,那就相当于登录成功并且获取用户注册时的信息数据。第二个函数register()
其实就是把录音保存在声纹库中,同时获取该音频的特征添加到待对比的数据特征中。最后recognition()
函数中,这个函数就是将输入的语音和语音库中的语音一一对比。
有了上面的声纹识别的函数,读者可以根据自己项目的需求完成声纹识别的方式,例如笔者下面提供的是通过录音来完成声纹识别。首先必须要加载语音库中的语音,语音库文件夹为audio_db
,然后用户回车后录音3秒钟,然后程序会自动录音,并使用录音到的音频进行声纹识别,去匹配语音库中的语音,获取用户的信息。通过这样方式,读者也可以修改成通过服务请求的方式完成声纹识别,例如提供一个API供APP调用,用户在APP上通过声纹登录时,把录音到的语音发送到后端完成声纹识别,再把结果返回给APP,前提是用户已经使用语音注册,并成功把语音数据存放在audio_db
文件夹中。
输出类似如下: