
一、在线使用
官方地址:https://www.deepseek.com/
官方对话入口:https://chat.deepseek.com/
实时使用官方最新大模型
对电脑、设备硬件无要求
完全免费,可以联网搜索
使用门槛非常低,方便快捷
二、本地部署
完全免费,保密性好,隐私性好
需要通过Ollama来安装,注意:需要使用魔法上网哦
安装Ollama
官方下载地址:https://ollama.com/download
安装完成后,在运行图标中,会有Ollama图标
模型安装命令
1.5B Qwen DeepSeek R1
ollama run deepseek-r1:1.5b
7B Qwen DeepSeek R1
ollama run deepseek-r1:7b
8B Llama DeepSeek R1
ollama run deepseek-r1:8b
14B Qwen DeepSeek R1
ollama run deepseek-r1:14b
32B Qwen DeepSeek R1
ollama run deepseek-r1:32b
70B Llama DeepSeek R1
ollama run deepseek-r1:70b
模型选择
没有GPU:1.5B Q8推理 或者 8B Q4推理
4G GPU:8B Q4推理
8G GPU:32B Q4推理 或者 8B Q4推理
16G GPU:32B Q4推理 或者 32B Q8推理
24G GPU: 32B Q8推理 或者 70B Q2推理
Qwen底模除了1.5B其他不建议,真的太拉跨;Llama底模推荐。
换个说法:
4G以下显存,用1.5B
8G–12G显存,用7B或8B
12G以上显卡,用14B、32B、70B
更多模型下载
DeepSeek-R1
| 模型 | #总参数 | #已激活参数 | 上下文长度 | 下载 |
|---|---|---|---|---|
| DeepSeek-R1-Zero | 671B | 37B | 128千 | 🤗 HuggingFace |
| DeepSeek-R1 | 671B | 37B | 128千 | 🤗 HuggingFace |
DeepSeek-R1-Zero 和 DeepSeek-R1 基于 DeepSeek-V3-Base 进行训练。有关模型架构的更多详细信息,请参阅DeepSeek-V3存储库。
DeepSeek-R1-Distill 模型
| 模型 | 基础模型 | 下载 |
|---|---|---|
| DeepSeek-R1-Distill-Qwen-1.5B | Qwen2.5-Math-1.5B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Qwen-7B | Qwen2.5-Math-7B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Llama-8B | Llama-3.1-8B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Qwen-14B | Qwen2.5-14B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Qwen-32B | Qwen2.5-32B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Llama-70B | Llama-3.3-70B-Instruct | 🤗 HuggingFace |
DeepSeek-R1-Distill 模型基于开源模型进行了微调,使用了 DeepSeek-R1 生成的样本。我们对其配置和分词器进行了轻微更改。请使用我们的设置来运行这些模型。
评估结果

DeepSeek-R1-评估
对于我们所有的模型,最大生成长度设置为 32,768 个 token。对于需要采样的基准,我们使用的温度为0.6,top-p 值为0.95,并为每个查询生成 64 个响应来估计 pass@1。
| 类别 | 基准(公制) | Claude-3.5-Sonnet-1022 | GPT-4o 0513 | DeepSeek V3 | OpenAI o1-mini | OpenAI o1-1217 | DeepSeek R1 |
|---|---|---|---|---|---|---|---|
| 建筑学 | – | – | 教育部 | – | – | 教育部 | |
| # 激活参数 | – | – | 37B | – | – | 37B | |
| # 总参数 | – | – | 671B | – | – | 671B | |
| 英语 | MMLU(通过@1) | 88.3 | 87.2 | 88.5 | 85.2 | 91.8 | 90.8 |
| MMLU-Redux(EM) | 88.9 | 88.0 | 89.1 | 86.7 | – | 92.9 | |
| MMLU-Pro(EM) | 78.0 | 72.6 | 75.9 | 80.3 | – | 84.0 | |
| 掉落 (3 发 F1) | 88.3 | 83.7 | 91.6 | 83.9 | 90.2 | 92.2 | |
| IF-Eval(提示严格) | 86.5 | 84.3 | 86.1 | 84.8 | – | 83.3 | |
| GPQA-钻石级 (Pass@1) | 65.0 | 49.9 | 59.1 | 60.0 | 75.7 | 71.5 | |
| SimpleQA(正确) | 28.4 | 38.2 | 24.9 | 7.0 | 47.0 | 30.1 | |
| 框架(配件) | 72.5 | 80.5 | 73.3 | 76.9 | – | 82.5 | |
| AlpacaEval2.0 (LC-胜率) | 52.0 | 51.1 | 70.0 | 57.8 | – | 87.6 | |
| ArenaHard(GPT-4-1106) | 85.2 | 80.4 | 85.5 | 92.0 | – | 92.3 | |
| 代码 | LiveCodeBench (Pass@1-COT) | 33.8 | 34.2 | – | 53.8 | 63.4 | 65.9 |
| Codeforces(百分位数) | 20.3 | 23.6 | 58.7 | 93.4 | 96.6 | 96.3 | |
| Codeforces(评级) | 717 | 759 | 1134 | 1820 | 2061 | 2029 | |
| SWE 已验证(已解决) | 50.8 | 38.8 | 42.0 | 41.6 | 48.9 | 49.2 | |
| Aider-Polyglot (Acc.) | 45.3 | 16.0 | 49.6 | 32.9 | 61.7 | 53.3 | |
| 数学 | AIME 2024(通行证@1) | 16.0 | 9.3 | 39.2 | 63.6 | 79.2 | 79.8 |
| 数学-500 (通过@1) | 78.3 | 74.6 | 90.2 | 90.0 | 96.4 | 97.3 | |
| CNMO 2024 (通行证@1) | 13.1 | 10.8 | 43.2 | 67.6 | – | 78.8 | |
| 中文 | CLUEWSC(EM) | 85.4 | 87.9 | 90.9 | 89.9 | – | 92.8 |
| C-评估(EM) | 76.7 | 76.0 | 86.5 | 68.9 | – | 91.8 | |
| C-SimpleQA(正确) | 55.4 | 58.7 | 68.0 | 40.3 | – | 63.7 |
蒸馏模型评估
| 模型 | AIME 2024 通行证@1 | AIME 2024 缺点@64 | MATH-500 通过@1 | GPQA 钻石通行证@1 | LiveCodeBench 通行证@1 | CodeForces 评级 |
|---|---|---|---|---|---|---|
| GPT-4o-0513 | 9.3 | 13.4 | 74.6 | 49.9 | 32.9 | 759 |
| Claude-3.5-Sonnet-1022 | 16.0 | 26.7 | 78.3 | 65.0 | 38.9 | 717 |
| o1-迷你 | 63.6 | 80.0 | 90.0 | 60.0 | 53.8 | 1820 |
| QwQ-32B-预览 | 44.0 | 60.0 | 90.6 | 54.5 | 41.9 | 1316 |
| DeepSeek-R1-Distill-Qwen-1.5B | 28.9 | 52.7 | 83.9 | 33.8 | 16.9 | 954 |
| DeepSeek-R1-Distill-Qwen-7B | 55.5 | 83.3 | 92.8 | 49.1 | 37.6 | 1189 |
| DeepSeek-R1-Distill-Qwen-14B | 69.7 | 80.0 | 93.9 | 59.1 | 53.1 | 1481 |
| DeepSeek-R1-Distill-Qwen-32B | 72.6 | 83.3 | 94.3 | 62.1 | 57.2 | 1691 |
| DeepSeek-R1-Distill-Llama-8B | 50.4 | 80.0 | 89.1 | 49.0 | 39.6 | 1205 |
| DeepSeek-R1-Distill-Llama-70B | 70.0 | 86.7 | 94.5 | 65.2 | 57.5 | 1633 |
测试题目
1块钱一瓶可乐,用两个空瓶可以再换一瓶可乐,假设你只有20元钱,最多可以喝到几瓶可乐?(39瓶)
明天的昨天是昨天的哪天?(今天)
鲁迅为什么要打周树人?
冰箱里有十个鸡蛋,我敲了两个,煎了两个,吃了两个,还剩几个蛋?(8个)
1117117是否是素数?(是)
2024^2025和2025^2024哪个大?(前者)
sin(x) + xcos(x)在(-pi, pi)中有几个零点?(三个)
请手动计算并给出前5个梅森素数(自己WIKI)
定义W(t)是标准布朗运动,求f(x)使得W(t)^2 + f(t)是一个鞅。(f(t) = -t)
运行终端
打开开始按钮,找到power shell,然后以管理员身份打开
输入命令:ollama run deepseek-r1:8b 8G显存用这个模型
注意需要使用魔法上网

下载完成后,是可以在powershell终端中,直接进行对话、提问的,但是使用起来不方便,不美观,需要终端化

浏览器插件Page Assist
谷歌浏览器和edge浏览器都可以使用
它是可以调用计算机本地CPU的,可以直接调用ollama本地安装的模型的
安装好后,初次使用默认是英文,切换语言为简体中文

打开插件后,即可自动检测到ollama是否在运行,如果没运行,先运行ollama

然后切换模型,刚才用ollama安装下载的模型

切换对话模型,然后输入问题,然后提交即可

效果对比:
8B模型推理结果

官方在线R1模型推理结果

结论:模型版本越高,算力、推理能力越强,同时对CPU、内存、显存的要求也越高,如果推理使用,建议使用官方在线版本
三、云端部署
对本地电脑硬件要求不高
私密性,相对官网更好
价格非常便宜,调用方便
创建API秘钥

客户端接入API
使用cherry studio客户端,接入API服务

回到硅基流动,可以查看API使用量及费用消耗




