轻松掌握DeepSeek:深度探索本地部署实战攻略
41
1
DeepSeek本地部署教程:轻松实现深度思考与内容提取
DeepSeek是一款强大的AI工具,可以在网页端使用,但有时可能会遇到不稳定的情况。为了解决这个问题,我们可以通过本地部署来使用DeepSeek。下面,我们将由“帅客工具库”带来详细的DeepSeek本地部署教程,帮助大家轻松实现深度思考和内容提取。 网页端使用 最简单的方式就是通过网页端使用DeepSeek。您只需打开网页,或者在应用商店搜索下载App即可。官网地址为:[https://chat.deepseek.com/](https://chat.deepseek.com/)。 DeepSeek的【深度思考】功能,即R1推理模型,可以自动进行思考。而【联网搜索】功能则可以搜索到最新的内容,特别是查看最新的新闻。 您可以选择文件(右下角),如图片、文档等,让DeepSeek提取其中的文字内容。最近DeepSeek的服务器访问量较大,经常会显示服务器有问题,无法使用。这时,我们可以使用API,但DeepSeek官方API暂时无法使用。 如果您有显卡,可以自己在本地部署DeepSeek。如果没有显卡,可以使用第三方的API,速度也很快,功能也很强大,虽然和官方的相比稍逊一筹,但也足够使用。然后,使用第三方的客户端连接就可以使用。 本地安装Deepseek R1 我们需要在Ollama上安装Deepseek R1模型。Ollama官网为:[https://ollama.com/](https://ollama.com/)。 打开官网,点击下载,然后安装到本地。接着,打开Ollama的模型列表,搜索到DeepSeek R1。 安装完成后,我们可以在命令行中使用。但这样使用起来特别不方便,因此我们需要找到一个第三方客户端。 第三方客户端 我们推荐使用Chatbox和Cherry Studio这两个第三方客户端。这里以Cherry Studio为例。 Cherry Studio是一个功能强大的AI客户端,支持国内外很多模型,还内置了提示词、文生图、文档等功能。 在Cherry Studio客户端中配置Ollama安装过的模型。默认API为:http://:11434/v1,模型名为:deepseek-r1:1.5b。 第三方API 如果您没有GPU,不建议在本地安装,可以使用API。这里以“硅基流动”为例。 注册一个账号,注册送14块,可以用好久。然后,打开【模型广场】,找到Deepseek R1,复制对应的模型。接着,打开API Key页面,创建一个api-key,再打开Cherry Studio。 在Cherry Studio中配置好模型后,打开聊天页面,在顶部选择R1模型就可以使用了。 免费API 如果您想使用免费或便宜的APP,可以在这个网站上查找:[https://openrouter.ai/deepseek/deepseek-r1:free](https://openrouter.ai/deepseek/deepseek-r1:free)。 Prompt DeepSeek官方提供了一个提示词网站:[https://api-docs.deepseek.com/prompt-library](https://api-docs.deepseek.com/prompt-library)。您可以在这里找到很多提示词,还可以生成提示词,扮演各种角色,格式化输出,代码改写,仿写功能。 使用Deepseek R1时,明确【关键词】,提供【上下文】,避免【歧义】,如果有时效性,把联网功能打开。 例如,您可以这样使用: - 你作为一个大厨,帮我出美食做法教程,包含步骤注意点食材调料,具体到秒。 - 你现在是一个产品专家和设计专家,帮我梳理分析衡量产品需求,还有细分需求和app原型图设计。 - 肉饼说中国不会再出一个OpenAI,反驳一下他。 - 模仿余华的风格写一段xx的经历。 - 导演的主旋律电影,分别都是什么时候上映? - 我现在月入xx,怎么做一个月入xx的f业,我懂一些编程和运营方面的技能。 以上就是DeepSeek本地部署的详细教程,希望对大家有所帮助。![]()