本地部署 DeepSeek
2025年3月3日大约 1 分钟
本地部署 DeepSeek
TODO: 本文详细介绍了如何在本地部署DeepSeek模型,特别是针对Windows系统的用户。文章首先强调了显卡的重要性,并提供了推荐的硬件配置。接着,文章逐步指导用户如何下载并运行Ollama,设置环境变量以避免C盘空间不足的问题。随后,文章介绍了如何通过Ollama下载和运行DeepSeek模型,并提供了不同模型对显存的需求和推荐显卡。最后,文章推荐了几种可视化AI工具,如Chatbox和Next.js Ollama LLM UI,以便用户更方便地使用本地模型。整个教程旨在帮助用户快速、简单地在本地搭建和使用DeepSeek模型。
目前直接使用联网API或者Web页面聊天的体验都不错,自己本地部署也不是满血,也没有业务需求,暂时没有部署的理由,暂且搁置,后续有需求了再看看