DeepSeek LM Studio 本地部署蒸馏量化模型教程速看!
时间:2025-02-15 22:22 来源:白饭炒白米饭 作者:白饭炒白米饭
前言
春节期间最火爆的新闻是 DeepSeek 没有之一,这则消息足以震动全互联网。它是一款国产的开源大模型,APP 登顶苹果中国区和美国区应用商店免费下载排行榜。一夜之间,微软、英伟达、亚马逊等全部接入DeepSeek模型。
部署环境
运行设备:MacBook Air
操作系统:macOS: 15.3
处理器:Apple M2
运行内存:16.00GB
显存大小:10.67GB
由于设备性能存在局限,通过 LM Studio 看到 GPU 能调用的最大显存只有 10.67GB,因此本文进行部署的大多为 DeepSeek-R1 的蒸馏量化模型。这些模型实际表现或许达不到预期。对绝大多数用户的设备条件限制(尤其是那些仅能部署 14B 参数以下模型的设备)而言,直接选用现成的云端服务不失为一种更为明智的选择,而非执着于本地部署。

但是也有一些深度用户,想在电脑端部署,离线使用。Apple Silicon 的 Mac 电脑可以通过以下命令来提升 GPU 的显存最大限制:sudo sysctl iogpu.wired_limit_mb=16384
接下来就来介绍基于 macOS 以及 LM Studio 进行本地部署,全程无需代理,力求让你快速学会部署自己的大语言模型。
快速开始
LM Studio 下载安装
打开 LM Studio 的官网地址(https://lmstudio.ai)下载进行安装,目前该软件 Mac 端仅支持 Apple Silicon 的电脑,Intel 处理器的电脑可以去搜索下使用 Ollama 进行部署。

LM Studio 语言设置
LM Studio 提供简体中文 Beta 版,可以点击右下角的按钮(齿轮图标)进入设置,在语言处选择“简体中文 (Beta)”,这个设置不是必须的,这里是为了降低使用的难度。


模型下载
由于 huggingface.co 在国内没办法直接访问,直接在 LM Studio 下载模型,大概率会遇到这种情况:Model details error: fetch failed

可以前往 huggingface.co 的国内镜像 hf-mirror.com 进行模型的下载,我们这里先下载一个 DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf 模型,下载地址:https://hf-mirror.com/lmstudio-community/DeepSeek-R1-Distill-Qwen-14B-GGUF/tree/main

这个地址打开后会看到有 4 个 gguf 模型文件,在 LLM 语言模型领域,Q3、Q4、Q6、Q8 代表着不同量化位数的量化类型,即分别将模型参数以 3 位、4 位、6 位、8 位来存储和计算,模型量化类型越大,意味着有更高的精度,但也会带来更大的内存占用以及更大的计算成本。
模型导入
模型下载后,是一个独立的 gguf 文件,打开 LM Studio “我的模型”功能,找到模型目录,点击右边路径设置,选择“在 Finder 中显示”,就可以将模型复制到文件夹内即可。


也可以设置成你的外置硬盘,比如我的移动硬盘里面有个 AI_Models/LM_Studio 文件夹存放了一些 gguf 文件,重命名好文件夹方便分类管理,还不占用 Mac 本地的存储空间。

设置好模型目录后,LM Studio 无需要重启,会自动刷新模型目录,这里显示出来你下载的 gguf 模型文件即表示已经成功了。

开始对话
返回 LM Studio 的“聊天”界面,在顶部选择模型,模型参数默认就行,后面可以自行再去研究。接下来就可以发消息开始对话:



前言 春节期间最火爆的新闻是 DeepSeek 没有之一,这则消息足以震动全互联网。它是一款国产的开源大模型,APP 登顶苹果中国区和美国区应用商店免费下载排行榜。一夜之间,微软、英伟达、亚马逊等全部接入DeepSeek模型。 部署环境 运行设备:MacBook Air 操作系统:macOS: 15.3 处理器:Apple M2 运行内存:16.00GB 显存大小:10.67GB 由于设备性能存在局限,通过 LM Studio 看到 GPU 能调用的最大显存只有 10.67GB,因此本文进行部署的大多为 DeepSeek-R1 的蒸馏量化模型。这些模型实际表现或许达不到预期。对绝大多数用户的设备条件限制(尤其是那些仅能部署 14B 参数以下模型的设备)而言,直接选用现成的云端服务不失为一种更为明智的选择,而非执着于本地部署。 ![]() 但是也有一些深度用户,想在电脑端部署,离线使用。Apple Silicon 的 Mac 电脑可以通过以下命令来提升 GPU 的显存最大限制:sudo sysctl iogpu.wired_limit_mb=16384 接下来就来介绍基于 macOS 以及 LM Studio 进行本地部署,全程无需代理,力求让你快速学会部署自己的大语言模型。 快速开始 LM Studio 下载安装 打开 LM Studio 的官网地址(https://lmstudio.ai)下载进行安装,目前该软件 Mac 端仅支持 Apple Silicon 的电脑,Intel 处理器的电脑可以去搜索下使用 Ollama 进行部署。 ![]() LM Studio 语言设置 LM Studio 提供简体中文 Beta 版,可以点击右下角的按钮(齿轮图标)进入设置,在语言处选择“简体中文 (Beta)”,这个设置不是必须的,这里是为了降低使用的难度。 ![]()
![]() 模型下载 由于 huggingface.co 在国内没办法直接访问,直接在 LM Studio 下载模型,大概率会遇到这种情况:Model details error: fetch failed ![]() 可以前往 huggingface.co 的国内镜像 hf-mirror.com 进行模型的下载,我们这里先下载一个 DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf 模型,下载地址:https://hf-mirror.com/lmstudio-community/DeepSeek-R1-Distill-Qwen-14B-GGUF/tree/main ![]() 这个地址打开后会看到有 4 个 gguf 模型文件,在 LLM 语言模型领域,Q3、Q4、Q6、Q8 代表着不同量化位数的量化类型,即分别将模型参数以 3 位、4 位、6 位、8 位来存储和计算,模型量化类型越大,意味着有更高的精度,但也会带来更大的内存占用以及更大的计算成本。 模型导入 模型下载后,是一个独立的 gguf 文件,打开 LM Studio “我的模型”功能,找到模型目录,点击右边路径设置,选择“在 Finder 中显示”,就可以将模型复制到文件夹内即可。 ![]()
![]() 也可以设置成你的外置硬盘,比如我的移动硬盘里面有个 AI_Models/LM_Studio 文件夹存放了一些 gguf 文件,重命名好文件夹方便分类管理,还不占用 Mac 本地的存储空间。 ![]() 设置好模型目录后,LM Studio 无需要重启,会自动刷新模型目录,这里显示出来你下载的 gguf 模型文件即表示已经成功了。 ![]() 开始对话 返回 LM Studio 的“聊天”界面,在顶部选择模型,模型参数默认就行,后面可以自行再去研究。接下来就可以发消息开始对话: ![]()
![]()
![]() |