赶紧本地部署DeepSeek体验一下最牛的大模型

程序员Feri一名12年+的程序员,做过开发带过团队创过业,擅长Java、鸿蒙、嵌入式、人工智能等开发,专注于程序员成长的那点儿事,希望在成长的路上有你相伴!君志所向,一往无前!



如果你还没安装Ollama,那么赶紧参考我上一篇博客《从0到1手把手教你本地部署大模型》

DeepSeek号称“国运级”,那么究竟怎么样?本篇主要带大家本地化部署

1.安装DeepSeek大模型

我们安装的是deepseek-r1,deepseek-r1是深度求索(DeepSeek)推出了第一代推理模型,其性能可与 OpenAI – o1 相媲美,其中包括基于 Llama 和通义千问(Qwen)从 DeepSeek – R1 提炼而来的六个稠密模型。

点击查看

赶紧本地部署DeepSeek体验一下最牛的大模型直接管理员打开命令行,输入下面的命令:

ollama run deepseek-r1:7b

我选择的7b的参数哈,为啥不选择其他的,主要也是结合我自己笔记本的情况。

赶紧本地部署DeepSeek体验一下最牛的大模型

整整重试了3次,才搞定

快来体验一下:可以直接命令框进行聊天问答

赶紧本地部署DeepSeek体验一下最牛的大模型

2.安装open-webui

使用pip命令安装openweb-ui

第一步:先对pip进行换源

这样下载才杠杠的

执行命令:

pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
赶紧本地部署DeepSeek体验一下最牛的大模型

第二步:下载open-webui

pip install open-webui

结果出错啦,错误信息如下所示:

赶紧本地部署DeepSeek体验一下最牛的大模型
赶紧本地部署DeepSeek体验一下最牛的大模型

so ga,原来是版本的问题,执行下面命令,升级pip的版本

python.exe -m pip install --upgrade pip

赶紧本地部署DeepSeek体验一下最牛的大模型要注意,python的版本只能在3.11和3.12之间,要不然也不可以哈

继续下载open-webui

pip install open-webui
赶紧本地部署DeepSeek体验一下最牛的大模型
赶紧本地部署DeepSeek体验一下最牛的大模型

第四步:启动open-webui

open-webui serve
赶紧本地部署DeepSeek体验一下最牛的大模型
赶紧本地部署DeepSeek体验一下最牛的大模型

第五步:浏览器直接访问

http://localhost:8080/

赶紧本地部署DeepSeek体验一下最牛的大模型第一个用户就是我们的管理员哈,注意喽!

赶紧本地部署DeepSeek体验一下最牛的大模型

第一次的时候,总是让人那么难忘,所以有点慢,需要点耐心,后面就666的飞起啦

赶紧本地部署DeepSeek体验一下最牛的大模型
赶紧本地部署DeepSeek体验一下最牛的大模型

其实我使用DeepSeek之后最大的感觉,她具备了一定的人的思考过程,降低了大模型的使用门槛,无需考虑提示词,可以直接对话,让其给出我们想要的内容。

好啦,本篇就到这啦,今天开工啦,祝愿所有兄弟姐妹们,开工大吉,2025顺势而为!


原文始发于微信公众号(程序员Feri):赶紧本地部署DeepSeek体验一下最牛的大模型

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/310024.html

(0)
李, 若俞的头像李, 若俞

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!