Flowise
是一款低代码/无代码的拖放工具,可以帮助人们轻松可视化和构建 LLM 应用程序。

LLM 应用在许多行业中都有广泛的应用,从金融到医疗,再到零售和物流。有了 FlowiseAI,即使是没有编程经验的人也可以创建这些应用,无需编写任何代码。对于努力以敏捷方式快速构建原型并开发 LLM 应用程序的组织来说,这同样是有益的。
让我们来看看 Flowise AI 的一些突出功能:
-
拖放式UI: Flowise使设计自己的自定义LLM流程变得简单。 -
开源: 作为一个开源项目,Flowise可以自由使用和修改。 -
用户友好: Flowise很容易上手,即使对那些没有编码经验的人也是如此。 -
通用: Flowise AI可用于创建各种LLM应用程序。
安装和设置
要安装和开始使用Flowise,请遵循以下步骤:
-
下载和安装 NodeJS >= 18.15.0 (使用 node -v
查一下你安装的版本,如果不够高,那么我建议你直接在这个页面解决问题:https://nodejs.org/en/download) -
使用以下命令安装Flowise: npm install -g flowise
。 -
启动Flowise: npx flowise start
,使用用户名密码启动:npx flowise start --FLOWISE_USERNAME=user --FLOWISE_PASSWORD=1234
。 -
在浏览器上打开 http://localhost:3000

如果你有 Docker 环境则使用 Docker 启动更为方便。
Docker Compose
-
进入项目根目录下的 docker 文件夹 -
创建 .env 文件并指定 PORT(参考 .env.example) -
运行 docker-compose up -d -
打开 http://localhost:3000 -
可以通过 docker-compose stop 停止容器
Docker 镜像
-
本地构建镜像:docker build –no-cache -t flowise . -
运行镜像:docker run -d –name flowise -p 3000:3000 flowise -
停止镜像:docker stop flowise
Flowise 支持的组件非常丰富。

示例1: 构建基本 LLM 链
-
在空白画布上,单击 + Add New
按钮以调出左侧的Add Nodes
面板。

-
从 Add Nodes
面板中选择以下组件,它们将出现在画布上。
-
从 LLMs 中将 OpenAI 拖到面板 -
从 Chains 分类中拖出 LLM chain -
从 Promps 分类中拖出 Prompt Template
现在,画布应该是这样的:

-
连接组件
-
将 OpenAI 的输出链接到 LLM Chain 的语言模型 -
将 Prompt Template 的输出链接到 LLM Chain 的 Prompt

-
输入必要的信息
-
在 OpenAI 的字段中输入OpenAI密钥 -
将以下 prompt 模板写入 Prompt Template
的 Template 字段中:What is a good name for a company that makes {product}?
-
给 LLM Chain 一个名字 -
单击右上角的保存图标进行保存 -
点击右上角的聊天图标,就可以开始发送“产品名称”了。在这里,我们得到了预期的答案

示例2: 构建 PDF 阅读器机器人
现在,让我们使用 Flowise 创建一个 PDF 阅读机器人。
-
将以下组件添加到空白画布中:
-
从 Text Splitters
中选择Recursive Character Text Splitter
(递归字符文本分割器) -
从 Document Loaders
中选择PDF file
-
从 Embeddings
中选择OpenAI Embeddings
-
从 Vector Stores
中选择In-memory Vector Store
(内存向量存储) -
从 LLMs
中选择OpenAI
-
从 Chains
中选择Conversational Retrieval QA Chain
(对话检索QA Chain)
现在我们在画布中拥有了所有必需的组件。

-
连接组件
-
链接 Recursive Character Text Splitter
的输出和PDF file
的输入 -
链接 PDF file
的输出和In-memory Vector Store
的输入 -
链接 OpenAI Embeddings
的输出和In-memory Vector Store
的输入 -
链接 In-memory Vector Store
的输出和Conversational Retrieval QA Chain
的输入 -
链接 OpenAI
的输出和Conversational Retrieval QA Chain
的输入

-
输入必要的信息
-
点击 PDF File
中的Upload File
,上传标题为Introduction to AWS Security
的示例 PDF 文件。 -
在 OpenAI
和OpenAIEmbeddings
字段中输入您的`OpenAI 密钥 -
单击 save
按钮,然后单击聊天按钮开始发送请求。

响应应该如预期的那样,并且机器人现在可以回答与此pdf文档相关的任何问题。
关于 Flowise 的更多用法可以参考官方文档:https://docs.flowiseai.com/ 以了解更多。
参考文档
-
https://docs.flowiseai.com/ -
https://luxiangdong.com/2023/08/05/flowise/ -
https://medium.com/design-bootcamp/flowise-an-agile-way-of-llm-application-development-with-no-code-solutions-687aacffef60
GitHub 仓库:
https://github.com/FlowiseAI/Flowise
原文始发于微信公众号(Github爱好者):Flowise – 可视化构建 LLM 应用
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/200933.html