目录

概述

这篇文章主要介绍了 DeepSeek 的精准使用提示词技巧和闭坑指南。包括基本使用方法,如深度思考、联网搜索、上传附件等功能的应用场景。提示词方面,强调精准高效提问,如明确需求、不定义过程、明确受众风格等技巧,还提到了反馈与迭代优化、复杂问题分步拆解等。闭坑指南包括避免冗长提示词、复杂句式等。

基本使用

直接打开 DeepSeek 官网,DeepSeek 有两个关键点是深度思考、联网搜索两个功能,如果你需要简单快速的回答的时候就不需要点击深度思考了,指定默认DeepSeek-V3模型就可以解决了。

深度思考 R1:当你需要完成更复杂的任务时,希望 AI 深思时,涉及到编程、数学、计算、产品策划方案推理等等,我们就可以打开深度思考了。

联网搜索:如果是涉及 2023 年 12 月之后的信息,需要打开联网搜索的条件,如果搜索的内容和时间没有关系,关闭联网搜索效果会更好。

上传附件:上传附件可以把 pdf、excel 等文件进行上传,相当于 AI 外挂一个文件知识库,AI 会根据文件内容进行更具时效性的回答。

提示词

DeepSeek-R1属于推理模型,是从原来操作手册指令型战略伙伴的范式革新,核心就是精准、高效的提问。

提示词的本质就是表达 Prompt,两个关键问题:

  • 首先,我是否真正理清了脑海里的想法;
  • 其次,我是否能够通过文字准确传达这个想法。

首先目前阶段我们需要达成几点共识:

1、推理型模型的提示词技巧,就是没有技巧。

DeepSeek-R1就是推理型模型。

直接问,不需要角色设定、不需要思维提示、不需要结构化提示词,不需要给提示、不需要给示例。

2、仍需要告诉 AI 足够多的背景信息。

  • 干什么?
  • 给谁干?
  • 目的是?,比如:要什么。
  • 约束是?比如:不要什么。

举例:

我要写一个如何理解爱因斯坦的相对论的科普文章,给中小学生看,希望能通俗易懂、内容充实、幽默,且觉得非常实用,不要太 AI 或枯燥。

3、用乔哈里视窗分析你到底该告诉 AI 多少信息。

  • 人知道、AI 也知道的:简单说

    推荐:我是一名小学生,请…… 不推荐:我是一名小学生,没有学习过物理、化学、听不懂高深的专业词汇,请……

  • 人知道、AI 不知道的:喂模式

    这里有几种典型方式:

    1、举例法

    最常见的是通过举例来实现,当我们展示一个具体例子时,实际上是在让 AI 感知这个例子中的模式 (pattern),并期待它能够通过自身的泛化能力来理解和应用这个模式。

    2、定义字典

    在特定场景中,比如需要使用 15 个独有术语时 (比如一些“业内黑话”),我们可以专门设置一个定义模块,将这个"定义字典"输入给 AI,这也是在输入模式。

    3、RAG(检索增强生成) 技术

    当我们面对 AI 未知的数据时,我们使用先检索 (本地 + 联网查资料)→再生成 (写答案) 的方式,本质上也是在输入模式。

    举例 1: 当前 2025 年,最新的法定年假政策是什么? – 联网检索。

    举例 2:公司今年的年假政策是什么?– 提供本地文件。

  • 人不知道、AI 知道的:提问题

    在这个领域,提示词的核心技巧就在于如何提出好问题

    “提问"本身完全可以作为一门独立的学科来研究,提升提问能力正是我们需要努力的方向。提问能力,也将成为一项核心竞争力

    也可以考虑通过推理模型先做一个苏格拉底式提问,让 AI 引导我们提问,并最终得到答案。

  • 人不知道、AI 也不知道的:开放聊

    这个象限属于:探索人类数学边界的数学家、正在挑战物理学极限的科学家。

    对人来说,不要小心翼翼,大胆聊,放开聊。

4、是否可以大白话交流?

可以,要尽量多提供些描述。

5、是否需要指定思考步骤,取决于你是否希望 AI 严格执行。

推理模型和通用模型的区别在于,推理模型会根据你的需求,自动生成一些提示词,且会规划步骤分步执行,而通用模型则需要你手动输入提示词。

所以在和 R1 模型交互时,把自己想象成具备管理经验的领导,而 R1 是聪明的下属,原则:给模型目标,而不是任务。

总之:给推理模型下达目标,给通用模型下达具体任务。所以我们可以下你给推理模型比如 R1 先下达目标,得到带有任务步骤的提示词,再优化后,给通用型模型下达具体的带有步骤的任务。

R1 推理模型提问技巧

技巧 1:要求明确

万能提示词模板:你是谁+(背景信息)+你的目标

你是谁:非常的有用。 背景信息:告诉他你为什么做这件事,你面临的现实背景是什么或问题是什么,你的目标:说清楚它帮你做什么,做到什么程度。

核心:用人话清晰的表达出你的需求

技巧 2:不要定义过程

特别建议大家提供清楚你的目标,让 R1 具备一定的思考空间去帮助你执行得更好,而非提供一个机械化执行指令。

你应该像产品经理提需求般描述要什么,而不是像程序员写代码般规定怎么做

举例 1:

❌不推荐的提问:

请按以下步骤解答: 
1.列出方程的所有可能形式式  
2.代入数值验证参数  
3.检查是否存在整数解的条件  
问题:方程 3x+5=20 的解是多少?

✅正确提问:

方程 3x+5=20 的解是什么?请通过数学逻辑推导给出过程。

举例 2:

❌不推荐的提问:

问题:A 说 B 在说谎,B 说 c 在说谎,c 说 A 和 B 都在说谎,谁在说真话?要求: 
步骤 1:列出所有人物关系  
步骤 2:排除矛盾选项  
步骤 3:验证时间线

✅正确提问:

A、B、C 三人中,A 指控 B 说谎,B 指控 c 说谎,c 则指控 A 和 B 都在说谎。根据逻辑矛盾如何推断谁在说真话?

技巧 3:明确受众、风格明确

R1 输出的内容看不懂怎么办?本质上就是对方不知道你是谁!

受众使用提示词:

  • 说人话
  • 我是一个小学生、初中生、高中生、大学生、博士生、…
  • 写给/讲给 小学生、初中生、高中生、…"

关于风格明确,模版如下:

模板:用 xxx 的风格,写一篇主题 xxx 的文章,要求 xxx。

举例 1:

玄武门之变结束的当天,李世民在深夜写下一段独白,请你用李世民的语气,写出他可能写的内容。

举例 2:

模仿董宇辉的风格,写 100 字杭州文旅文案。

举例 3:

模仿朱自清《春》的文风,写一篇春天的散文。

举例 4:

有人说你是 chatGPT 套壳,用键盘侠的风格怼回去,要求骂人不吐脏字

举例 5:

为我写一首类似于阿房宫赋的文言文,  
描述中国近代史,融入哲学思考。

技巧 4:联网功能

众人皆知推理模型好,但是推理模型,几乎都不联网,Deepseek-R1是为数不多的,可以联网的推理大模型。

技巧 5:补充额外信息

上传 PDF/PPT 作为知识基底。(最多不超过 50 个,每个不超过 100MB)
推理 + 上传附件,可以做更多本地化、私密化的东西,比如你自己的知识库或者内部资料。让其基于自有知识库进行推理和思考。

举例 1:

根据上传的图书,分析这本书作者想表达的主要观点,以及作为企业经营者主要关注的问题是啥。

举例 2:

基于这份 2024Q3 财报,分析新能源电池业务的毛利率变化。

举例 3:

基于我提供的奥运会数据,请分析 2024 年巴黎奥运会中国代表团不同运动项目的金牌贡献率。

技巧 6:上下文的联系 vs 清除记忆

上下文记忆:Deepseek R1 目前提供的上下文只有 64k token 长度 (官方 API 文档的说明实际聊天对话的长度待确认),对应到中文字符大概是 3-4 万字。适用于文档分析、长对话等场景。

注意 1:上下文记忆有限

上下文理解能力是有限的。随着会话时间的延长,模型处理过去信息的能力会受到限制,从而导致遗忘,之前最初聊天的内容。

当你发送的文档长度超过 3 万字时,你可以理解为他是通过 RAG,也就是检索增强的方式去选取你文档中的部分内容作为记忆的一部分来展开与你的对话的,而不是全部内容。

注意 2:输出长度有限

多数大模型会将输出长度控制在 4k 或者 8k,也就是单次对话最多给你 2-4 千中文字符。

所以,你没法复制一篇万字长文让 Deepseek 一次性完成翻译,也不能让 Deepseek 一次性帮你写一篇 5000 字以上的文章,这些都是模型输出长度限制导致,你需要理解这个问题的存在。

注意 3:如何清除之前的记忆

因为模型会记住或跟踪你之前写的所有聊天记录。如果之前你的角色设定是体育老师,下面又问数学问题,那就会出现“你的数学是体育老师教的”问题。

解决办法:

  • 开启新的对话。
  • 输入:回复此条对话前,请忽略前面所有的对话。

技巧 7:反馈与选代优化

情况 1:对初始的回答进一步追问、优化

举例 1:

用鲁迅的文风写一篇 2000 字以内的公众号文章,分析一下 2025 春节档的几部爆火的电影。

举例 2:简化内容

上一个回答中的技术解释过于复杂,请用小学生能听懂的语言重新描述’云计算”概念,并举例说明。

举例 3:补充细节

关于时间管理四象限法则’,请补充一个职场人士的每日任务分配案例 (每个象限至少 2 个任务)。

举例 4:修正错误

你提到“光合作用的暗反应需要光照’,这与教材矛盾,请核实并重新解释光反应与暗反应的区别。

举例 5:调整风格

将上述法律条款解读改写成幽默风格的科普短文,适合社交媒体传播,保留核心信息。

举例 6:扩展范围

"你推荐的书籍均为英文原著,请再推荐 3 本中文科幻小说,要求近 5 年出版目豆瓣评分 8.0 以上。

情况 2:针对某一个问题,挑毛病或辩证思考,评估方案和决策

提示词:

  • 辩证的思维或批判性思维思考问题
  • 多角度考虑问题
  • 请批判性思考至少 10 轮,务必详尽
  • 请从反面考虑至少 10 轮,务必详尽

Deepseek 会恢复到深度思考的状态,提供更有价值的回答。

举例 1:

我是个脱离职场 5 年的宝妈,宝宝现在 3 岁,在上幼儿园,帮我想想有哪些副业可以赚钱,对你的回答复盘 5 次,论证可行性。

举例 2:

模仿李白的风格,写一首七言律诗,描述中国近代史,反复斟酌,注意是否满足七律对于韵律的要求。

背景/附加条件: 

模仿李白的风格,描述中国近代史,反复斟酌

目标: 
写一首满足韵律要求的七言律诗

技巧 8:复杂问题,分步拆解

举例 1:项目管理

  • 第一阶段:“简述敏捷开发的核心原则。
  • 第二阶段:“基于上述原则,设计一个 2 周的 App 迭代计划,包含每日站会、任务看板、验收标准。”

举例 2:法律咨询

  • 第一步:“在中国注册个体工商户需要哪些基本材料?”
  • 第二步:“如果经营餐饮行业,还需额外办理哪些许可证?请列出办理流程和预计耗时。

闭坑

避坑 1:冗长提示词污染关键词

超过 200 字的需求描述可能导致焦点偏移,过度思考,甚至逻辑凌乱。

推理模型时代,只需要命中那个关键词即可。其余的,交给模型自由发挥。

避坑 2:避免复杂句式和模湖词语

举例 1:

错误提问:

能不能帮我写点关于现在智能手机的东西,说说它的好用地方,特别是拍照和电池

正确提问:

请写一段关于智能手机的介绍,突出拍照和续航。

举例 2:

错误提问: (未说明格式和数量)

列几个电动车牌子

正确提问:

生成 5 个新能源汽车品牌名称,用 Markdown 列表展示

避坑 3:避免“分步骤思考”要求

R1 模型通过强化学习,自动生成完整思维链。

错误提问

1.列出所有可能原因  
2.评估证据支持度  
3.选择最优解释

直接提问:

某电商用户下单后频繁取消订单的根本原因可能是什么?

避坑 4:过度角色扮演

R1 本身就是专家模型&专家思维,除非你是需要 R1 从特定学科视角为你提供解答,在那种情况下,你只需要去提示学科即可,不需要提专家了。

错误举例:

“假设你是乔布斯…”,“假设你是数据库专家…”,  
“假设你是一名医生…”"

本文收藏来自互联网,仅用于学习研究,著作权归原作者所有,如有侵权请联系删除,阅读原文

9ong@TsingChan markdown 2025

部分引用格式为收藏注解,比如本句就是注解,非作者原文。