腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
Pytorch实践
深度学习框架Pytorch实践
专栏成员
举报
35
文章
101879
阅读量
40
订阅数
订阅专栏
申请加入专栏
全部文章(35)
其他(10)
python(4)
深度学习(4)
人工智能(4)
编程算法(4)
神经网络(3)
pytorch(3)
机器学习(2)
搜索引擎(2)
迁移学习(2)
区块链(1)
NLP 服务(1)
tensorflow(1)
游戏(1)
开源(1)
分布式(1)
自动化(1)
爬虫(1)
强化学习(1)
微信(1)
小程序(1)
机器人(1)
chat(1)
core(1)
policy(1)
task(1)
搜索文章
搜索
搜索
关闭
人机对话系统回复质量的自动化评估
自动化
机器人
对话系统 人机对话系统分为任务型对话和非任务型对话系统。对于任务型对话系统的评价,一般采用任务完成的程度来进行评估,例如“导购”机器人,主要看用户是否点击“推荐商品”等来评估。非任务型对话系统,一般是闲聊系统,若是多轮对话,一般使用用户与机器之间进行对话的轮数来评估系统优劣。但是若是单轮对话呢,如何评价机器给出回复的好坏?对于给定一句话的回复,不同的人可以给出不同的答案,只要自圆其说即可,如此开放的回复空间,评价回复的好坏实属困难。 而目前并没有什么公认的评价指标可以更好地对对话系统的回复进行评价。很多论文
CodeInHand
2018-06-07
4K
2
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档