前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >居然生成这样的答案,AI简直离了大谱...

居然生成这样的答案,AI简直离了大谱...

作者头像
架构师之路
发布2023-08-10 14:50:20
1370
发布2023-08-10 14:50:20
举报
文章被收录于专栏:架构师之路架构师之路

前文介绍了我认为目前最强的AI工具Claude:

(1)目前最强的内容生成能力;

(2)目前最强的个性化能力;

(3)目前最强的上下文关联能力;

(4)最独特的“喂饭”机制;

(5)免魔法上网,免费;

画外音,详细内容参考:

最好用的AI工具居然是它!

最强提示词技巧"喂饭机制",没有之一!

AI确实有很多优点,但AI也有诸多不足,在使用过程中要万分注意。

【1】尽量不要问AI工具关于它自己的问题

用提示词和AI沟通时,有一条最佳实践:把AI当人来沟通。

如果你把AI当系统来沟通,它可能会回答得比较含糊,甚至编造答案。

例如,我问AI,你的训练数据截止到哪一年。

然后Claude否定了自己的身份,并“王顾左右而言他”的回复了一系列内容。

同时,还弹出了系统提示,“别问关于它自己的内容,它可能会编内容(hallucinate)”。

【2】AI目前还不太擅长数学

AI比较擅长知识类问题,以及内容生成类问题,数学问题似乎有点为难它。

例如,我问了一个很简单的鸡兔同笼问题:

AI确实列出了方程:

x+y=2

2x+4y=6

但它却解错了,同时也弹出了系统提示,“AI不擅长解数学问题”。

【3】基于历史数据训练的AI不了解当下的事情

效果好,智能高的AI,需要大量数据,长时间训练,因此很多AI是不了解当下的事情的。

接入实时数据的AI,仅在知识问答与搜索的场景里表现较好。

画外音:可以看出,AI是基于20年数据训练的。

【4】AI有可能胡说八道的编内容

有时候,AI不知道提问是知识问答,为了完成回答,他可能“编纂内容”“创作内容”来进行糊弄。

例如,希望它对诗句:

它却在瞎编。

当然,优化提示词之后,AI搞清楚了你的意图,能够得到正确答案。

画外音:此例中的提示词技巧是“举例”。

再举一个更离谱的例子,张飞是如何投奔东吴的?

AI煞有介事的生成了一段内容,什么“曹操派吕蒙攻打荆州”“东吴大将东方朔”“袁术用封赏吸引张飞”…

乍一看,居然有理有据,有宏观,有细节,但是>>>

真离了个大谱。

如何判断AI生成内容的真实性,可靠性,要成为我们即将面对的新难题。

你还见过AI哪些离谱的回答?

相关文章:

我认为,最好用的AI工具是它

最强提示词技巧“喂饭机制”,没有之一

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-06-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 架构师之路 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档