2.5K+ Star!免费使用 Kimi 的API接口,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像解析……

https://github.com/LLM-Red-Team/kimi-free-api

Github项目详情见【阅读原文】

项目简介

kimi-free-api 是一个开源项目,提供一个与 Kimi AI 兼容的API接口,允许用户免费使用 Kimi AI 的功能。

Kimi AI 是由月之暗面科技有限公司开发的长文本大模型,擅长长文本解读整理,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像解析以及多轮对话。

2.5K+ Star!免费使用 Kimi 的API接口,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像解析……

使用场景

  • 高速流式输出:适用于需要快速响应的对话场景。

  • 智能体对话:可以与特定的智能体进行对话,模拟特定角色的语言风格。

  • 联网搜索:在对话中结合实时网络搜索结果,提供更准确的信息。

  • 长文档解读:帮助用户理解和整理长篇幅的文档内容。

  • 图像解析:对图像内容进行分析和解读。

  • 多轮对话:在多轮交互中维持上下文连贯性。

使用方法

在线体验

提供了一个临时测试功能的链接:https://udify.app/chat/Po0F6BMJ15q5vu2P

接入准备

  • 从kimi.moonshot.cn获取refresh_token
  • 在Kimi发起对话后,通过开发者工具获取refresh_token值。

部署方法

提供了多种部署方式,包括Docker、Docker-compose、Render、Vercel、Zeabur和原生部署。

1. Docker 部署
  • 准备一台服务器并开放8000端口。
  • 拉取镜像并启动服务:
docker run -it -d --init --name kimi-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/kimi-free-api:latest
2. Docker-compose 部署

使用以下docker-compose.yml文件:

version: '3'
services:
  kimi-free-api:
 container_name: kimi-free-api
 image: vinlic/kimi-free-api:latest
 restart: always
 ports:
- "8000:8000"
 environment:
- TZ=Asia/Shanghai
3. Render 部署
  • Fork本项目到你的GitHub账号下。
  • 登录Render(https://dashboard.render.com/)并连接你的GitHub账号。
  • 创建WebService并选择部署区域和实例类型。
4. Vercel 部署
  • 确保安装Node.js环境。
  • 全局安装Vercel CLI:
npm i -g vercel --registry http://registry.npmmirror.com
  • 登录Vercel并部署项目:
vercel login
git clone https://github.com/LLM-Red-Team/kimi-free-api
cd kimi-free-api
vercel --prod

接口列表

支持与openai兼容的/v1/chat/completions接口,可以进行对话补全、文档解读和图像解析。

PS:项目推荐使用二次开发客户端接入,如 LobeChat 和 ChatGPT Web,这些客户端支持文档/图像上传,简化了接入流程。


注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。

欢迎关注&点赞&在看,感谢阅读~

原文始发于微信公众号(AIGC创想者):2.5K+ Star!免费使用 Kimi 的API接口,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像解析……

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/315578.html

(0)
小半的头像小半

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!