Hacking Machine Learning: spaCy meets Transformers
像BERT、GPT-2和XLNet这样的大型Transformer模型,几乎在每一个自然语言处理(NLP)的榜单上都设立了新的准确度标准。然而,这些模型还很新,围绕它们的软件生态大多侧重于提供更多的研究机会。
在本次演讲中,将介绍如何在spaCy(一个将自然语言处理应用于实际问题的开源库)中使用这些模型。同时,还将讨论新的迁移学习技术能为生产环境的NLP带来的诸多机遇,无论你选择哪个具体的软件包来完成工作。
演讲者Ines是一位专注于AI和NLP工具开发的专家。她是Explosion的联合创始人,也是spaCy(Python中流行的开源自然语言处理库)和Prodigy(一个用于为机器学习模型创建训练数据的现代化标注工具)的核心开发者。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。