https://github.com/LLM-Red-Team/kimi-free-api
Github项目详情见【阅读原文】
项目简介
kimi-free-api 是一个开源项目,提供一个与 Kimi AI
兼容的API接口,允许用户免费使用 Kimi AI
的功能。
Kimi AI
是由月之暗面科技有限公司开发的长文本大模型,擅长长文本解读整理,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像解析以及多轮对话。
使用场景
-
高速流式输出:适用于需要快速响应的对话场景。
-
智能体对话:可以与特定的智能体进行对话,模拟特定角色的语言风格。
-
联网搜索:在对话中结合实时网络搜索结果,提供更准确的信息。
-
长文档解读:帮助用户理解和整理长篇幅的文档内容。
-
图像解析:对图像内容进行分析和解读。
-
多轮对话:在多轮交互中维持上下文连贯性。
使用方法
在线体验
提供了一个临时测试功能的链接:https://udify.app/chat/Po0F6BMJ15q5vu2P
。
接入准备
-
从kimi.moonshot.cn获取 refresh_token
。 -
在Kimi发起对话后,通过开发者工具获取 refresh_token
值。
部署方法
提供了多种部署方式,包括Docker、Docker-compose、Render、Vercel、Zeabur和原生部署。
1. Docker 部署
-
准备一台服务器并开放8000端口。 -
拉取镜像并启动服务:
docker run -it -d --init --name kimi-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/kimi-free-api:latest
2. Docker-compose 部署
使用以下docker-compose.yml
文件:
version: '3'
services:
kimi-free-api:
container_name: kimi-free-api
image: vinlic/kimi-free-api:latest
restart: always
ports:
- "8000:8000"
environment:
- TZ=Asia/Shanghai
3. Render 部署
-
Fork本项目到你的GitHub账号下。 -
登录Render( https://dashboard.render.com/
)并连接你的GitHub账号。 -
创建WebService并选择部署区域和实例类型。
4. Vercel 部署
-
确保安装Node.js环境。 -
全局安装Vercel CLI:
npm i -g vercel --registry http://registry.npmmirror.com
-
登录Vercel并部署项目:
vercel login
git clone https://github.com/LLM-Red-Team/kimi-free-api
cd kimi-free-api
vercel --prod
接口列表
支持与openai兼容的/v1/chat/completions
接口,可以进行对话补全、文档解读和图像解析。
PS:项目推荐使用二次开发客户端接入,如 LobeChat
和 ChatGPT Web
,这些客户端支持文档/图像上传,简化了接入流程。
注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。
欢迎关注&点赞&在看,感谢阅读~
原文始发于微信公众号(AIGC创想者):2.5K+ Star!免费使用 Kimi 的API接口,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像解析……
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/315578.html