这篇文章主要介绍了 DeepSeek 的精准使用提示词技巧和闭坑指南。包括基本使用方法,如深度思考、联网搜索、上传附件等功能的应用场景。提示词方面,强调精准高效提问,如明确需求、不定义过程、明确受众风格等技巧,还提到了反馈与迭代优化、复杂问题分步拆解等。闭坑指南包括避免冗长提示词、复杂句式等。
直接打开DeepSeek官网,页面大致如下,DeepSeek能暴打ChatGPT关键因素是深度思考、联网搜索两个功能,如果你需要简单快速的回答的时候就不需要点击深度思考了,指定默认DeepSeek-V3
模型就可以解决了。
深度思考R1:当你需要完成更复杂的任务时,希望AI深思时,涉及到编程、数学、计算、产品策划方案等等,我们就可以打开深度思考了。
联网搜索:如果是涉及2023年12月之后的信息,需要打开联网搜索的条件,如果搜搜的内容和时间没有关系,关闭联网搜索效果会更好。
上传附件:上传附件可以把pdf、或者excel进行上传,进行更具时效性的任务,进行提问,也可以上传一本书让DeepSeek
概括一些中心思想。
DeepSeek
之所以称之为AI核武器,与其他大模型最根本的不同,DeepSeek
属于推理模型,是操作手册指令型到战略伙伴的范式革新,核心就是精准、高效的提问。
提示词的本质就是表达Prompt,两个关键问题:首先,我是否真正理清了脑海里的想法,其次,我是否能够通过文字准确传达这个想法。
我们需要达成几点共识:
DeepSeek-R1
的提示词技巧,就是没有技巧,不需要角色设定、不需要思维提示、不需要结构化提示词,不需要给提示、不需要给实例...干什么?
给谁干?
目的是?(要什么)
约束是?(不要什么)
举例:
我要写一个如何理解爱因斯坦的相对论的科普文章,给中小学生看,希望能通俗易懂、内容充实、幽默,且觉得非常实用,不要太AI或枯燥。
推荐:我是一名小学生,请...
不推荐:我是一名小学生,没有学习过物理、化学、听不懂高深的专业词汇 请...
这里有几种典型方式:
1.举例法:
最常见的是通过举例来实现,当我们展示一个具体例子时,实际上是在让AI感知这个例子中的模式(pattern),并期待它能够通过自身的泛化能力来理解和应用这个模式。
2.定义字典:
在特定场景中,比如需要使用15个独有术语时(比如一些“业内黑话”),我们可以专门设置一个定义模块,将这个"定义字典"输入给AI,这也是在输入模式。
3.RAG(检索增强生成)技术:
当我们面对AI未知的数据时,我们使用先检索(本地+联网查资料)→再生成(写答案)的方式,本质上也是在输入模式。
举例1:2025年当前,最新的法定年假政策是什么?(联网检索)
举例2:公司今年的年假政策是什么?(提供本地文件)
在这个领域,提示词的核心技巧就在于如何提出好问题。
"提问"本身完全可以作为一门独立的学科来研究,提升提问能力正是我们需要努力的方向。提问能力,也将成为一项核心竞争力。
这个象限属于:探索人类数学边界的数学家、正在挑战物理学极限的科学家。
可以,要尽量多提供些描述。
在和R1交互时,把自己想象成具备管理经验的领导,而R1是聪明的下属,原则:给模型目标,而不是任务。
万能提示词模板: 你是谁+(背景信息)+你的目标
你是谁:非常的有用
背景信息:告诉他你为什么做这件事,你面临的现实背景是什么或问题是什么,你的目标:说清楚它帮你做什么,做到什么程度
核心:用人话清晰的表达出你的需求。
特别建议大家提供清楚你的目标,让R1具备一定的思考空间去帮助你执行得更好,而非提供一个机械化执行指令。
你应该像产品经理提需求般描述要什么,而不是像程序员写代码般规定怎么做。
举例1:
错误提问:
请按以下步骤解答:
1.列出方程的所有可能形式式
2.代入数值验证参数
3.检查是否存在整数解的条件
问题:方程3x+5=20的解是多少?
正确提问:方程3x+5=20的解是什么?请通过数学逻辑推导给出过程。
举例2:
错误提问:
问题:A说B在说谎,B说c在说谎,c说A和B都在说谎,谁在说真话?要求:
步骤1:列出所有人物关系
步骤2:排除矛盾选项
步骤3:验证时间线
正确提问:A、B、C三人中,A指控B说谎,B指控c说谎,c则指控A和B都在说谎。根据逻辑矛盾如何推断谁在说真话?
R1输出的内容看不懂怎么办?本质上就是对方不知道你是谁!
使用提示词:
关于风格明确,模版如下:
模板:用xxx的风格,写一篇主题xxx的文章,要求xxx。
举例1:
玄武门之变结束的当天,李世民在深夜写下一段独白,请你用李世民的语气,写出他可能写的内容。
举例2:
模仿董宇辉的风格,写100字杭州文旅文案。
举例3:
模仿朱自清《春》的文风,写一篇春天的散文。
举例4:
有人说你是chatGPT套壳,用键盘侠的风格怼回去,要求骂人不吐脏字
举例5:
为我写一首类似于阿房宫赋的文言文,
描述中国近代史,融入哲学思考。
众人皆知推理模型好,但是推理模型,几乎都不联网,Deepseek-R1
是为数不多的,可以联网的推理大模型。
上传PDF/PPT作为知识基底。(最多不超过50个,每个不超过100MB)
推理+上传附件,可以做更多本地化、私密化的东西,比如你自己的知识库或者内部资料。让其基于自有知识库进行推理和思考。
举例1:
根据上传的图书,分析这本书作者想表达的主要观点,以及作为企业经营者主要关注的问题是啥。
举例2:
基于这份2024Q3财报,分析新能源电池业务的毛利率变化。
举例3:
基于我提供的奥运会数据,请分析2024年巴黎奥运会中国代表团不同运动项目的金牌贡献率。
上下文记忆:Deepseek R1目前提供的上下文只有64k token长度(官方API文档的说明实际聊天对话的长度待确认),对应到中文字符大概是3-4万字。适用于文档分析、长对话等场景。
三点注意:
注意1:上下文记忆有限
上下文理解能力是有限的。随着会话时间的延长,模型处理过去信息的能力会受到限制,从而导致遗忘,之前最初聊天的内容。
当你发送的文档长度超过3万字时,你可以理解为他是通过RAG,也就是检索增强的方式去选取你文档中的部分内容作为记忆的一部分来展开与你的对话的,而不是全部内容。
注意2:输出长度有限
多数大模型会将输出长度控制在4k或者8k,也就是单次对话最多给你2-4千中文字符
所以,你没法复制一篇万字长文让Deepseek一次性完成翻译,也不能让Deepseek一次性帮你写一篇5000字以上的文章,这些都是模型输出长度限制导致,你需要理解这个问题的存在。
注意3:如何清除之前的记忆
因为模型会记住或跟踪你之前写的所有聊天记录。如果之前你的角色设定是体育老师,下面又问数学问题,那就会出现“你的数学是体育老师教的”问题。
解决办法:
① 开启新的对话
② 输入:回复此条对话前,请忽略前面所有的对话
情况1:对初始的回答进一步追问、优化。
举例1:
用鲁迅的文风写一篇2000字以内的公众号文章,分析一下2025春节档的几部爆火的电影。
举例2:简化内容
巴“上一个回答中的技术解释过于复杂,请用小学生能听懂的语言重新描述'云计算”概念,并举例说明。
举例3:补充细节
巴“关于时间管理四象限法则’,请补充一个职场人士的每日任务分配案例(每个象限至少2个任务)。
举例4:修正错误
巴"你提到“光合作用的暗反应需要光照’,这与教材矛盾,请核实并重新解释光反应与暗反应的区别。
举例5:调整风格
国"将上述法律条款解读改写成幽默风格的科普短文,适合社交媒体传播,保留核心信息。
举例6:扩展范围
"你推荐的书籍均为英文原著,请再推荐3本中文科幻小说,要求近5年出版目豆瓣评分8.0以上。
情况2:针对某一个问题,挑毛病或辩证思考,评估方案和决策
提示词:
Deepseek 会恢复到深度思考的状态,提供更有价值的回答。
举例1:
我是个脱离职场5年的宝妈,宝宝现在3岁,在上幼儿园,帮我想想有哪些副业可以赚钱,对你的回答复盘5次,论证可行性。
举例2:
模仿李白的风格,写一首七言律诗,描述中国近代史,反复斟酌,注意是否满足七律对于韵律的要求。
背景/附加条件:
模仿李白的风格,描述中国近代史,反复斟酌
目标:
写一首满足韵律要求的七言律诗
举例1:项目管理
举例2:法律咨询
超过200字的需求描述可能导致焦点偏移,过度思考,甚至逻辑凌乱
推理模型时代,只需要命中那个关键词即可。其余的,交给模型自由发挥。
举例1:
错误提问:能不能帮我写点关于现在智能手机的东西,说说它的好用地方,特别是拍照和电池正确提问口:请写一段关于智能手机的介绍,突出拍照和续航
举例2:
错误提问:列几个电动车牌子(未说明格式和数量)正确提问口:生成5个新能源汽车品牌名称,用Markdown列表展示
R1模型通过强化学习,自动生成完整思维链。
错误提问
1.列出所有可能原因
2.评估证据支持度
3.选择最优解释
问题:某电商用户下单后频繁取消订单的根本原因可能是什么?
R1本身就是专家模型&专家思维,除非你是需要R1从特定学科视角为你提供解答,在那种情况下,你只需要去提示学科即可,不需要提专家了。
错误举例:
"假设你是乔布斯…","假设你是数据库专家....",
"假设你是一名医生...""
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。