【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)

流量卡

最近,一个名字频繁出现在全球科技圈的讨论中——DeepSeek。你可能已经听过它的名字,也可能被它的强大性能所震撼。这个来自中国的AI公司,凭借其完全免费开源的模型,迅速冲上了各大应用商店下载榜的第一名,甚至引发了美国总统和世界首富的关注。今天,我们就来聊聊DeepSeek的传奇故事,并为你带来一套本地部署模型方案,让你无限制享受科技带来的便利!

图片[1]-【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)-代码飓风

DeepSeek-R1各项性能指标,和OpenAI-o1模型不相上下,甚至略有碾压势头!

图片[2]-【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)-代码飓风

1、本地部署安装Ollama(三种下载方式任选其一)

1、Ollama下载地址:点击下载

2、Ollama备用地址1:点击下载

3、Ollama备用地址2:点击下载

下载好后Ollama ,点击Install安装

图片[3]-【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)-代码飓风

2、通过Ollama,安装DeepSeek(推荐硬件配置要求)

模型显存推荐内存推荐适用场景安装命令
1.5B Qwen DeepSeek R12-4 GB(GPU)4-8 GB移动端语音助手,轻量级聊天机器人ollama run deepseek-r1:1.5b
7B Qwen DeepSeek R18-12 GB(GPU)16-32 GB中等规模文本生成,企业级问答系统ollama run deepseek-r1:7b
8B Llama DeepSeek R112-16 GB(GPU)32-64 GB高质量文本生成,代码生成与补全ollama run deepseek-r1:8b
14B Qwen DeepSeek R124-32 GB(GPU)64-128 GB复杂自然语言理解,高质量内容创作ollama run deepseek-r1:14b
32B Qwen DeepSeek R148-80 GB(多卡 GPU)128-256 GB大规模数据处理,高级代码生成与优化ollama run deepseek-r1:32b
70B Llama DeepSeek R180 GB 以上256 GB 以上超大规模语言模型训练与推理,复杂科研任务ollama run deepseek-r1:70b
模型选择:尽量选7B,推荐选8B,顶级配置无脑冲14B!

复制上面的安装命令,粘贴到命令行窗口运行

图片[4]-【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)-代码飓风

3、在本地运行,DeepSeek(两种主流运行方式)

1、AnythingLLM点击下载

图片[5]-【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)-代码飓风

使用效果

图片[6]-【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)-代码飓风

2、本地AI模型插件点击下载

打开浏览器,添加拓展程序,Page Assist – 本地 AI 模型的 Web UI

图片[7]-【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)-代码飓风

使用效果

图片[8]-【154】5分钟搞定DeepSeek本地部署模型!支持Windows/MacOS/Linux系统,完全免费开源、离线使用!(附DeepSeek使用手册)-代码飓风

相关推荐

视频教程

© 版权声明
THE END
喜欢就支持一下吧
点赞38 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容