3分钟快速构建大语言模型AI知识库

FastGPT

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

知识库核心流程图

3分钟快速构建大语言模型AI知识库图片来源:https://doc.fastgpt.in

私有化部署

这里使用 Docker Compose 快速进行 FastGPT 私有化部署

1、安装 Docker

# 安装 Docker
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
systemctl enable --now docker
# 安装 docker-compose
curl -L https://github.com/docker/compose/releases/download/2.20.3/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose
# 验证安装
docker -v
docker-compose -v

如果已经安装,直接跳过就是

2、容器编排

创建一个本地目录并且进入该目录

mkdir tinywan-fastgpt
cd tinywan-fastgpt

以上创建目录路径为/d/Tinywan/GPT/tinywan-fastgpt

docker-compose.yml 配置文件

version: '3.3'
services:
  pg:
    image: registry.cn-hangzhou.aliyuncs.com/fastgpt/pgvector:v0.5.0 # 阿里云
    container_name: pg
    restart: always
    ports: # 生产环境建议不要暴露
      - 5432:5432
    networks:
      - fastgpt
    environment:
      # 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果
      - POSTGRES_USER=username
      - POSTGRES_PASSWORD=password
      - POSTGRES_DB=postgres
    volumes:
      - ./pg/data:/var/lib/postgresql/data
  mongo:
    image: mongo:5.0.18
    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/mongo:5.0.18 # 阿里云
    container_name: mongo
    restart: always
    ports: # 生产环境建议不要暴露
      - 27017:27017
    networks:
      - fastgpt
    environment:
      # 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果
      - MONGO_INITDB_ROOT_USERNAME=username
      - MONGO_INITDB_ROOT_PASSWORD=password
    volumes:
      - ./mongo/data:/data/db
  fastgpt:
    container_name: fastgpt
    image: registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:latest # 阿里云
    ports:
      - 3000:3000
    networks:
      - fastgpt
    depends_on:
      - mongo
      - pg
    restart: always
    environment:
      # root 密码,用户名为: root
      - DEFAULT_ROOT_PSW=123465
      # 中转地址,如果是用官方号,不需要管
      - OPENAI_BASE_URL=https://api.openai.com/v1
      - CHAT_API_KEY=sb-xxx
      - DB_MAX_LINK=5 # database max link
      - TOKEN_KEY=any
      - ROOT_KEY=root_key
      - FILE_TOKEN_KEY=filetoken
      # mongo 配置,不需要改. 如果连不上,可能需要去掉 ?authSource=admin
      - MONGODB_URI=mongodb://username:password@mongo:27017/fastgpt?authSource=admin
      # pg配置. 不需要改
      - PG_URL=postgresql://username:password@pg:5432/postgres
    volumes:
      - ./config.json:/app/data/config.json
networks:
  fastgpt:

注:请填写CHAT_API_KEY对应的值。

config.json 配置文件

{
    "SystemParams": {
        "pluginBaseUrl""",
        "vectorMaxProcess"15,
        "qaMaxProcess"15,
        "pgHNSWEfSearch"100
    },
    "ChatModels": [
        {
            "model""gpt-3.5-turbo-1106",
            "name""GPT35-1106",
            "price"0,
            "maxContext"16000,
            "maxResponse"4000,
            "quoteMaxToken"2000,
            "maxTemperature"1.2,
            "censor"false,
            "vision"false,
            "defaultSystemChatPrompt"""
        },
        {
            "model""gpt-3.5-turbo-16k",
            "name""GPT35-16k",
            "maxContext"16000,
            "maxResponse"16000,
            "price"0,
            "quoteMaxToken"8000,
            "maxTemperature"1.2,
            "censor"false,
            "vision"false,
            "defaultSystemChatPrompt"""
        },
        {
            "model""gpt-4",
            "name""GPT4-8k",
            "maxContext"8000,
            "maxResponse"8000,
            "price"0,
            "quoteMaxToken"4000,
            "maxTemperature"1.2,
            "censor"false,
            "vision"false,
            "defaultSystemChatPrompt"""
        },
        {
            "model""gpt-4-vision-preview",
            "name""GPT4-Vision",
            "maxContext"128000,
            "maxResponse"4000,
            "price"0,
            "quoteMaxToken"100000,
            "maxTemperature"1.2,
            "censor"false,
            "vision"true,
            "defaultSystemChatPrompt"""
        }
    ],
    "QAModels": [
        {
            "model""gpt-3.5-turbo-16k",
            "name""GPT35-16k",
            "maxContext"16000,
            "maxResponse"16000,
            "price"0
        }
    ],
    "CQModels": [
        {
            "model""gpt-3.5-turbo-1106",
            "name""GPT35-1106",
            "maxContext"16000,
            "maxResponse"4000,
            "price"0,
            "functionCall"true,
            "functionPrompt"""
        },
        {
            "model""gpt-4",
            "name""GPT4-8k",
            "maxContext"8000,
            "maxResponse"8000,
            "price"0,
            "functionCall"true,
            "functionPrompt"""
        }
    ],
    "ExtractModels": [
        {
            "model""gpt-3.5-turbo-1106",
            "name""GPT35-1106",
            "maxContext"16000,
            "maxResponse"4000,
            "price"0,
            "functionCall"true,
            "functionPrompt"""
        }
    ],
    "QGModels": [
        {
            "model""gpt-3.5-turbo-1106",
            "name""GPT35-1106",
            "maxContext"1600,
            "maxResponse"4000,
            "price"0
        }
    ],
    "VectorModels": [
        {
            "model""text-embedding-ada-002",
            "name""Embedding-2",
            "price"0.2,
            "defaultToken"700,
            "maxToken"3000
        }
    ],
    "AudioSpeechModels": [
        {
            "model""tts-1",
            "name""OpenAI TTS1",
            "price"0,
            "voices": [
                {
                    "label""Alloy",
                    "value""alloy",
                    "bufferId""openai-Alloy"
                },
                {
                    "label""Echo",
                    "value""echo",
                    "bufferId""openai-Echo"
                },
                {
                    "label""Fable",
                    "value""fable",
                    "bufferId""openai-Fable"
                },
                {
                    "label""Onyx",
                    "value""onyx",
                    "bufferId""openai-Onyx"
                },
                {
                    "label""Nova",
                    "value""nova",
                    "bufferId""openai-Nova"
                },
                {
                    "label""Shimmer",
                    "value""shimmer",
                    "bufferId""openai-Shimmer"
                }
            ]
        }
    ],
    "WhisperModel": {
        "model""whisper-1",
        "name""Whisper1",
        "price"0
    }
}

3、启动容器

通过命令docker-compose pull 获取更新版本的镜像

3分钟快速构建大语言模型AI知识库

通过命令docker-compose up -d 启动容器

3分钟快速构建大语言模型AI知识库

查看容器启动情况

3分钟快速构建大语言模型AI知识库

4、访问 FastGPT

目前可以通过 ip:3000 直接访问。这里是本地部署,所以直接通过 http://127.0.0.1:3000 直接访问即可。

部署成功访问页面如下所示

3分钟快速构建大语言模型AI知识库

登录用户名为 root,密码为docker-compose.yml环境变量里设置的 DEFAULT_ROOT_PSW

登录成功访问页面如下所示

3分钟快速构建大语言模型AI知识库

构建知识库

创建知识库

成功登录后,新建一个知识库,取名开源技术小栈

3分钟快速构建大语言模型AI知识库

通过文件将个人经历导入到知识库中

【新建/导入】【文件导入】

3分钟快速构建大语言模型AI知识库

确认后就开始将当前数据转化为向量数据

3分钟快速构建大语言模型AI知识库

选择文件导入时,可以选择直接分段方案。直接分段会利用句子分词器对文本进行一定长度拆分,最终分割中多组的q。如果使用了直接分段方案,我们建议在应用设置引用提示词时,使用通用模板即可,无需选择问答模板。

导入成功

3分钟快速构建大语言模型AI知识库

至此,个人知识库已经建好了。尝试进行测试问答

3分钟快速构建大语言模型AI知识库

链接训练数据

https://mp.weixin.qq.com/s/1GD8eKrxJWXdgS3OKR4VHQ
https://mp.weixin.qq.com/s/BFdfDXHavZ_jZwVaFq2duQ
https://mp.weixin.qq.com/s/mNhMCzUtLUKrIzqSVa-qZA
https://mp.weixin.qq.com/s/n4n-0UCWJW9u2N1ca3HisQ
https://mp.weixin.qq.com/s/WXAPxHYteX7h1Hu73KEnFQ
https://mp.weixin.qq.com/s/chI8IbenaMFejvS7blLsBw
3分钟快速构建大语言模型AI知识库

等待所有数据准备就绪

3分钟快速构建大语言模型AI知识库

使用知识库

创建应用

使用知识库必须要创建一个应用

3分钟快速构建大语言模型AI知识库

关联知识库

设置了开场白并且选择绑定对应知识库开源技术小栈

3分钟快速构建大语言模型AI知识库

点击保存预留后,可以直接在右边调试预览框预览对话进行文档内容测试。

开始对话

3分钟快速构建大语言模型AI知识库
3分钟快速构建大语言模型AI知识库

点击链接查看知识库引用

3分钟快速构建大语言模型AI知识库

打开对应链接可以直接跳转到微信公众号文章地址

总结

构建私有数据训练服务,针对问题提供精准回答。可以通过AI服务训练自有数据,形成AI知识库,然后创建不同的机器人针对用户问题提供精准回答。并且可以通过API接口很方便整合到自己的产品服务中。


原文始发于微信公众号(开源技术小栈):3分钟快速构建大语言模型AI知识库

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/248054.html

(0)
李, 若俞的头像李, 若俞

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!