DeepSeek 的烈火还在熊熊燃烧。昨天群友讨论,说一个确定的趋势是:国内外的很多 AI 应用,从春节假期到现在都在加班加点的把自己的 API 往 DeepSeek 上切。
甚至很多国内做出海业务,之前使用 OpenAI 的企业,最近也开始往 DeepSeek 上切了,因为 DeepSeek 在很多方面表现出色,并且成本比较低。
此外,还有一部分像我这样的普通用户,几乎每天都在用 DeepSeek 查询问题,但是经常会碰到 “服务器繁忙,请稍后再试” 的提示,尤其是在工作时间,你着急着要用,它却服务繁忙让你重试,点了重试后还得等一等,结果等一段时间还是不能用,特别烦。
遇到这种情况怎么办?我在网上看到了一些代替方案,整体评估下来,感觉不太好。春节假期结束刚上班的时候,我曾经试过在硅基流动上跑 DeepSeek,但着实太卡,卡的我怀疑折腾这干什么。我们测试下来发现服务特别不稳定,可能是一下子涌入的人太多了,作为创业公司硅基流动有点扛不住,所以折腾半天之后又放弃了。
像我们这样的创业公司,很有可能有调用 DeepSeek API 的需求,所以必须得有一个好的解决方案。在各个方案之间周旋了很久之后,目前我找到市面上最好的解决方案就是火山方舟。性价比、速度、并发量,都是最优解。
火山方舟是火山引擎旗下的一个子产品。简单来说,火山方舟是一个 AI 模型服务的平台,能提供各种 AI 模型,还能让你自己训练和优化模型。
因为 DeepSeek 是开源的,所以我们可以直接在火山方舟上去跑 DeepSeek 模型。有人可能会说,你直接在自己电脑上本地部署一个多好,其实不好部署。因为像我们这样的创业公司,没有硬件资源,也没有存储资源,这个模型没那么容易跑起来,最好的方案还是尽量在云上调用 API。
那怎么调用呢?火山方舟复杂吗?我可以负责任的跟你说,很简单。我们基本上已经完成测试,流程全部跑了一遍。不管你之前有没有大模型开发经验,按我的教程, 15 分钟就能把这个服务搭起来。现在火山方舟还有活动,每个模型免费送 50 万 Tokens。
像我们团队的几个人,之前都没有大模型开发经验,更多的是语言和前端应用层的开发经验,用了 15 分钟,也基本把这一套模型彻底跑下来了,而且成本非常低。
再提一下,火山引擎还做了很多优化,我们做压测,发现它的高并发访问支持非常好。
接下来讲一下教程,教程一共分两部分,第一部分是怎么在火山方舟上部署 DeepSeek 模型,第二部分是怎么调用 API,教程略有简化,闲话不说了,直接上教程。
首先,你需要注册一个火山引擎的账号,这一步我直接省略了。注册完之后,你直接跳转到火山方舟的入口(菜单栏点产品->火山方舟),或者复制下面的链接到浏览器:
https://www.volcengine.com/product/ark
进入火山方舟的主页后,再点“立即体验”,此时,摆在我们面前的就是一系列的模型:豆包、Mistral、GLM,当然,最重要的是,有 DeepSeek-R1。火山方舟提供了几个版本的 DeepSeek 模型,咱直接选满血版本,这样效果最好。
注意,还有其他几个带有 Distill 字样的,是 DeepSeek-R1 的蒸馏模型,通过蒸馏技术,把 DeepSeek-R1 这个大模型的知识和推理能力,转移到更小的模型里。就好比把一个经验丰富的老师的知识,教给学生,让学生也能有不错的表现。这样得到的小模型在推理任务上表现不错,同时计算效率更高,更容易部署。
蒸馏模型的优势是效率高、成本低,但在处理复杂任务时,能力可能会受到限制。所以,我们要根据自己的实际情况选择合适的模型。因为要给大家展示 R1 满血版本的能力,所以,我直接选择 DeepSeek-R1。
然后,就进入了一个对话的页面。这时候,如果你的目的只是使用 DeepSeek R1 的对话能力,不调 API,那就可以像用 DeepSeek 官方的 ChatBot 那样直接把自己的问题发过去。
现在注册火山方舟,能在页面右下角的活动入口,领取 50 万的 Tokens。普通用户,这能用挺长一段时间了。所以,一点都不复杂吧,和注册 DeepSeek 一样,只要点几步,就能用一个满血,且一点都不卡的 DeepSeek 了。很多人宁愿等等等,也不愿意花点时间来看看有没有其他的路。哎。
我们继续赶路,看看调 API 怎么操作。
左侧菜单栏,点“在线推理”菜单。在线推理这个功能,大白话解释就是可以让用户可以通过网络直接调用大模型进行推理计算,而不用自己搭建复杂的模型运行环境。这些服务都非常简单,学习成本很低,我们团队几个人,之前也都没玩过,但很快点了点,实践一下就明白了。
页面的最上面,官方解释了整体的步骤。根据那个步骤来就好。点蓝色的按钮,创建“推理接入点”。你根据要求,填入接入点名称和接入点描述。比如,我们想接入到自己的旅游项目中,然后这个项目的代号是谷雨。描述是可选的,先不填。模型选择 DeepSeek-R1。
这步之后,你会发现页面黄色浮块提示“该模型未开通,开通后可创建推理接入点”。好解决,点“立即开通”按钮。这时候,如果还没实名认证过的话,需要你实名认证。认证过后,你选择 DeepSeek-R1 模型,然后开通就可以。如果你还计划用其他模型的话,那可以全部选择之后开通。
不要担心会扣钱,因为刚才说了,官方已经送了 50 万的 Tokens。从上面我的截图你能看到,购买方式是按 Token 付费,也就是用多少 Token 就扣多少钱。官方会优先消耗赠送的额度。这个活动不知道什么时候结束,所以我建议你可以先占坑,注册账号领取它的 Token,薅羊毛……
确认好后,点右侧的确认接入按钮。完成接入点的创建。这时候,准备工作已经完成一大半了。你看下图,最左侧是接入点名称,谷雨下面的一连串数字和字母组合,就是我们创建的 R1 模型的名称,后面还会用到。最后一列中,点“API 调用”。
API 调用的界面,大部分程序员都很熟悉了。这跟我们调用其他的 API 逻辑一致。没有 API Key 的话,跟着官方提示创建一个即可,然后再把 API KEY 复制出来。我们团队用的编程语言是 Golang,火山官方有 Golang 调用的例子,直接放到业务代码里就可以(下面只截了一部分)。需要说下,火山方舟的 API 和 OpenAI API 完全兼容,所以,用这种方法替换 OpenAI,非常简单。
现在,模型的 API 就彻底搞定了。为了跑个闭环,我用现在流行的 CherryStudio 来接下 API。CherryStudio 是一个支持多模型服务的 AI 客户端,并且在 GitHub 上有开源项目,作者是一个中国工程师,它的体验算是目前行业内比较好的。用法极其简单,直接去 cherry-ai.com 下载一个客户端,它有 Mac 和 Windows 两个端。
打开 Cherry Studio 后,在设置中选择模型服务,然后选择豆包,把刚刚的 API Key 复制进去。继续点击添加模型,再把在火山方舟中创建的模型 id 粘贴好,设置给名称,就大功告成了。注意,这里的 Cherry Studio 就是调用模型的前端应用,相当于是一个 ChatBot,你能够替换为自己的业务场景。
如果你也跟着到了这一步,那能给自己鼓个掌。恭喜你又完成了一次人生的技能突破,可以独立部署模型。当别人还在纠结 DeepSeek 为什么老挂时,你已经通过自己的动手能力,把这些烦恼事一一解决。这就是效率。难不难?没有开发背景,同样 15 分钟能够搞定。搞不定,就去问 AI,这是一个通过 AI,更好利用 AI 的例子。
回到 Cherry Studio 聊天的窗口,在上方选择前面自己已经创建好的模型,你就能够用 R1 了。我做下自己的演示:
最后,说下火山方舟的优势。我们做了压测,研究了下,火山方舟是我们评估目前市面上所有的方案中,性价比最高的。它们支持高达 500 万 TPM(每分钟请求数)的全网最高的初始限流,这意味着一开始做产品的话,我们就能允许相对较高的请求流量通过,不至于因为限流过低而影响正常使用。并且,延迟非常小,从我的演示中也能看到,非常快。
原文始发于微信公众号(AI产品阿颖):免费、不卡顿调用DeepSeek R1的终极教程(含API)
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/313023.html