请考虑以下培训材料:
(这两种语言都使用了相同的注释准则)。
在分析了初步实验装置的结果后,我们选择了BERT作为基线系统。
考虑到所涉及的不同语言,我们试验了能够处理这些语言的不同模型: FlauBERT和CamemBERT (法语)、AraBERT (阿拉伯语)以及伯特多语种。一般来说,对于这两种语言,BERT多语种所得到的结果都低于语言特定模型所得到的结果。
从理论上讲,是否有可能将多个模型合并成一个模型,有效地将迄今学到的所有数据结合起来?例如,结合CamemBERT只训练dataset2的法语部分和AraBERT只训练阿拉伯部分?
发布于 2021-10-19 20:15:50
一个工程解决方案是:创建一个语言检测器,将输入提供给检测器,根据语言类型分类,将输入发送到适当的模型,即如果输入是法语,则直接将输入输入到CamemBERT。输出将与CamemBERT乘以语言检测器的精度一样精确。
但如果你问的是,模型的权重是否可以被操纵,这样我们就可以得到一个新的完全统一的模型,它还处于研究阶段。
https://datascience.stackexchange.com/questions/103279
复制相似问题