最近,Deepseek-R1火速出圈,直接冲到北美App Store排行榜首,妥妥的大模型顶流!

然而,最近接二连三的服务器崩溃,都一直上热搜了。那本地没有备用怎么能行?
昨天我也在文章写用腾讯codeStudio在云端部署,虽然资源强悍近乎免费,部署简单。但是奈何外网访问实在费劲。
具体文章可以参考:
今天我就用手头这台Mac电脑部署一套Deepseek-R1的8B模型,跑一下本地,看看效果到底有多炸裂!
前置工作
首先你的mac需要安装docker环境,作为一个开源的容器化平台,它可以让开发者将应用程序及其依赖项打包成一个独立的容器,方便在不同的环境中进行部署和运行。
大白活就是:将你安装的所有依赖都打包到一起,一个命令直接运行程序。省时省力!

我们安装docker的目的就是在第三步安装客户端起作用,如果不清楚可以先略过。
官网的下载地址:
https://www.docker.com/get-started/
本地安装大模型
我们现在就开始我们本地安装大模型配置之旅了!
第一步:去ollama平台下载最新的安装包,按照教程点击安装。
官方地址:https://ollama.com/download

第二步:在命令窗中输入下面的命令,执行“ollama list”,有如下情况显示,说明已经安装成功。

第三步:用远程服务器,拉数据。执行 命令:ollama run deepseek-r1:8b

差不多过半个小时就下载完了,会出来“>>>”的标志,我们可以直接在这里和本地大模型对话。

安装对话客户端
总不可能一直用命令窗去和大模型对话吧,总得有一个像这样的界面工具吧。

这里我推荐open-webui,操作安装也比较简单。
官方地址:
https://docs.openwebui.com/
仅仅运行一条docker指令,即可。具体的命令如下:
docker run -d -e HF_ENDPOINT=https://hf-mirror.com -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
安装完成后会提示注册账号密码,按照要求注册即可。在界面输入“localhost:3000”。

然后就可以和本地大模型愉快的交流了。

写在后面的话
就这样,大模型已经在mac机器跑起来了。
我分别用日常对话、做数学题以及让大模型生成代码这些常用指令去问deepseek,整体还是很ok的。当然偶尔也会卡壳一下子。
只不过电脑的温度瞬间就飙升到95度了。真正的使用情况如何,我们后续再测试。
欢迎关注大瑜,获取更多的AI知识和AI工具教程。

原文始发于微信公众号(大瑜聊AI):Deepseek崩了?是时候本地部署一个了!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/313786.html