https://github.com/LLM-Red-Team/qwen-free-api
Github项目详情见【阅读原文】
项目简介
qwen-free-api 是一个开源项目,提供与阿里通义千问大模型兼容的API接口。
该项目支持多种功能,包括高速流式输出、无水印AI绘图、长文档解读、图像解析以及多轮对话等。允许用户通过零配置部署,支持多路token,并能自动清理会话痕迹,以提高使用体验。

使用场景
-
对话补全:用户可以利用 qwen-free-api
进行自动文本生成,实现聊天机器人的对话补全功能。 -
AI绘图:根据用户提供的描述,AI可以生成相应的图像。 -
文档解读:AI可以解析用户提供的文档内容,并给出解读。 -
图像解析:AI可以对用户提供的图像进行内容解析。 -
多轮对话:支持在对话中进行多轮交互,使对话更加自然和连贯。
使用方法
在线体验
提供了一个临时测试功能的链接:https://udify.app/chat/qOXzVl5kkvhQXM8r
。
接入准备
-
用户从通义千问( https://tongyi.aliyun.com/qianwen
)登录获取login_tongyi_ticket
。 -
使用开发者工具从Cookies中找到 login_tongyi_ticket
的值,这将作为后续请求的Bearer Token。
部署方法
提供了多种部署方式,包括Docker、Docker-compose、Render、Vercel、Zeabur和原生部署。
1. Docker 部署
-
准备一台具有公网IP的服务器,并将8000端口开放。 -
使用以下命令拉取镜像并启动服务:
docker run -it -d --init --name qwen-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/qwen-free-api:latest
-
查看、重启或停止服务的命令分别是:
docker logs -f qwen-free-api
docker restart qwen-free-api
docker stop qwen-free-api
2. Docker-compose 部署
使用以下docker-compose.yml
文件:
services:
qwen-free-api:
container_name: qwen-free-api
image: vinlic/qwen-free-api:latest
restart: always
ports:
- "8000:8000"
environment:
- TZ=Asia/Shanghai
3. Render 部署
-
fork本项目到你的github账号下。 -
访问 Render 并登录你的github账号。 -
构建你的 Web Service(New+ -> Build and deploy from a Git repository -> Connect你fork的项目 -> 选择部署区域 -> 选择实例类型为Free -> Create Web Service)。 -
等待构建完成后,复制分配的域名并拼接URL访问即可。
4. Vercel 部署
-
确保安装Node.js环境。 -
全局安装Vercel CLI:
npm i -g vercel --registry http://registry.npmmirror.com
-
登录Vercel并部署项目:
npm i -g vercel --registry http://registry.npmmirror.com
vercel login
git clone https://github.com/LLM-Red-Team/qwen-free-api
cd qwen-free-api
vercel --prod
5. 原生部署
-
准备一台服务器并安装Node.js环境。 -
安装依赖:
npm i
-
安装PM2进行进程守护:
npm i -g pm2
-
编译构建:
npm run build
-
启动服务:
pm2 start dist/index.js --name "qwen-free-api"
-
查看、重启或停止服务的命令分别是:
pm2 logs qwen-free-api
pm2 reload qwen-free-api
pm2 stop qwen-free-api
接口列表
-
对话补全:兼容openai的 /chat/completions
接口,允许发送对话消息并获取补全结果。 -
AI绘图:兼容openai的 /images/generations
接口,根据描述生成图像。 -
文档解读:允许用户上传文档并获取AI的解读结果。 -
图像解析:提供图像URL或BASE64编码,获取AI对图像内容的解析。 -
Token存活检测:检测提供的 login_tongyi_ticket
是否有效。
目前支持与openai兼容的 /v1/chat/completions 接口,可自行使用与openai或其他兼容的客户端接入接口,或者使用 dify 等线上服务接入使用。
PS:项目推荐使用二次开发客户端如LobeChat或ChatGPT Web,以简化接入流程。
注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。
欢迎关注&点赞&在看,感谢阅读~
原文始发于微信公众号(AIGC创想者):六边形战士!免费使用阿里通义千问API接口,支持高速流式输出、无水印AI绘图、长文档解读、图像解析、多轮对话,零配置部署……
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/315571.html