DeepSeek
2025年3月4日大约 2 分钟
DeepSeek
使用
网页使用
API 使用
实用集成
System Prompt
: 对话开始时给模型的“初始指令”,用于定义模型的角色、回答风格或任务目标例如:“你是一个专业翻译,请将中文翻译成英文”或“用简单易懂的语言解释概念”。
需要避免开放式指令,否则模型可能偏离预期。
Max Tokens(最大生成长度)
: 限制模型单次生成的最大文本长度(1 Token ≈ 1个英文单词或3-4个中文字)。不同模型有总Token上限(输入+输出),例如:
- GPT-3.5:通常为
4096 Tokens
- GPT-4:可达
8192 Tokens
或更高
设置建议
- 短回答(快速回复):
100-300
tokens - 长文本(文章/故事):
500-1000+
tokens - 注意:过长可能导致回答冗余,过短可能截断内容。
- GPT-3.5:通常为
Temperature(温度)
: 控制输出的随机性。值越高,回答越多样/有创意;值越低,回答越保守/稳定。设置建议
- 严谨场景(如代码、翻译):
0.2-0.5
- 创意场景(如写诗、故事):
0.7-1.0
- 极端随机:
>1.0
(可能导致语句不通)
- 严谨场景(如代码、翻译):
Top-P(核采样)
: 从累积概率超过阈值P的词中选择候选词(动态调整候选词数量)设置建议
- 平衡多样性和质量:
0.7-0.9
- 高确定性回答:
0.3-0.5
- 通常与Temperature配合使用。
- 平衡多样性和质量:
Top-K(前K个候选)
: 仅从概率最高的前K个词中选择,限制候选词数量设置建议
- 限制输出范围:
50-100
(常用) - 严格筛选:
10-20
(可能过于机械) - 与Top-P二选一,通常优先用Top-P。
- 限制输出范围:
Frequency Penalty(频率惩罚)
: 控制模型生成重复词汇的惩罚力度。值越高,模型越倾向于避免重复使用已生成的词汇;值越低,允许的重复度越高通过降低已出现词汇的概率权重,减少重复(例如避免“很好很好很好”这类冗余表达)。
取值范围通常为
0.0~2.0
(不同平台可能略有差异),默认值为0
(无惩罚)。
参数搭配建议:
场景 | Temperature | Top-P | Max Tokens |
---|---|---|---|
技术文档生成 | 0.3 | 0.5 | 500 |
创意故事写作 | 0.8 | 0.9 | 800 |
客服问答 | 0.2 | 0.3 | 200 |
开放域闲聊 | 0.7 | 0.8 | 300 |