DeepSeek
2025年3月4日大约 2 分钟
DeepSeek
使用
网页使用
API 使用
实用集成

System Prompt: 对话开始时给模型的“初始指令”,用于定义模型的角色、回答风格或任务目标例如:“你是一个专业翻译,请将中文翻译成英文”或“用简单易懂的语言解释概念”。
需要避免开放式指令,否则模型可能偏离预期。
Max Tokens(最大生成长度): 限制模型单次生成的最大文本长度(1 Token ≈ 1个英文单词或3-4个中文字)。不同模型有总Token上限(输入+输出),例如:
- GPT-3.5:通常为
4096 Tokens - GPT-4:可达
8192 Tokens或更高
设置建议
- 短回答(快速回复):
100-300tokens - 长文本(文章/故事):
500-1000+tokens - 注意:过长可能导致回答冗余,过短可能截断内容。
- GPT-3.5:通常为
Temperature(温度): 控制输出的随机性。值越高,回答越多样/有创意;值越低,回答越保守/稳定。设置建议
- 严谨场景(如代码、翻译):
0.2-0.5 - 创意场景(如写诗、故事):
0.7-1.0 - 极端随机:
>1.0(可能导致语句不通)
- 严谨场景(如代码、翻译):
Top-P(核采样): 从累积概率超过阈值P的词中选择候选词(动态调整候选词数量)设置建议
- 平衡多样性和质量:
0.7-0.9 - 高确定性回答:
0.3-0.5 - 通常与Temperature配合使用。
- 平衡多样性和质量:
Top-K(前K个候选): 仅从概率最高的前K个词中选择,限制候选词数量设置建议
- 限制输出范围:
50-100(常用) - 严格筛选:
10-20(可能过于机械) - 与Top-P二选一,通常优先用Top-P。
- 限制输出范围:
Frequency Penalty(频率惩罚): 控制模型生成重复词汇的惩罚力度。值越高,模型越倾向于避免重复使用已生成的词汇;值越低,允许的重复度越高通过降低已出现词汇的概率权重,减少重复(例如避免“很好很好很好”这类冗余表达)。
取值范围通常为
0.0~2.0(不同平台可能略有差异),默认值为0(无惩罚)。
参数搭配建议:
| 场景 | Temperature | Top-P | Max Tokens |
|---|---|---|---|
| 技术文档生成 | 0.3 | 0.5 | 500 |
| 创意故事写作 | 0.8 | 0.9 | 800 |
| 客服问答 | 0.2 | 0.3 | 200 |
| 开放域闲聊 | 0.7 | 0.8 | 300 |