在阅读Tensorflow关于单词嵌入的教程时,我发现了两个让我感到困惑的注释:
注意:在实验上,您可以使用更简单的模型生成更多可解释的嵌入。尝试删除密集(16)层,重新培训模型,并再次可视化嵌入。
还包括:
注意:通常,需要一个更大的数据集来训练更多可解释的单词嵌入。本教程使用小型IMDb数据集进行演示。
我不知道这两个音符中“更可解释”的确切含义,这与嵌入投影仪显示的结果有关吗?为什么在降低模型复杂度的同时,可解释性会增加呢?
非常感谢!
发布于 2023-02-26 15:30:04
在这方面,“可解释”并不十分精确。
在删除密集层的情况下,嵌入层更有可能学习数据集中与非任务相关的词的同时发生。
在第二种情况下,增加更多的数据,嵌入层将学习更多的信号,因为有更多的机会“平均”噪音。
换句话说,通过降低体系结构的复杂性和对更多数据的培训,word嵌入更具有通用性。
https://datascience.stackexchange.com/questions/118804
复制相似问题