LaWGPT 是一系列基于中文法律知识的开源大语言模型。
该系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容的理解和执行能力。
快速开始
准备代码,创建环境
# 下载代码
git clone git@github.com:pengxiao-song/LaWGPT.git
cd LaWGPT
# 创建环境
conda create -n lawgpt python=3.10 -y
conda activate lawgpt
pip install -r requirements.txt
启动 web ui(可选,易于调节参数)
-
首先,执行服务启动脚本: bash scripts/webui.sh
-
其次,访问 http://127.0.0.1:7860 :
命令行推理(可选,支持批量测试)
-
首先,参考 resources/example_infer_data.json
文件内容构造测试样本集; -
其次,执行推理脚本: bash scripts/infer.sh
。其中--infer_data_path
参数为测试样本集路径,如果为空或者路径出错,则以交互模式运行。
注意,以上步骤的默认模型为 LaWGPT-7B-alpha ,如果您想使用 LaWGPT-7B-beta1.0 模型:
由于 LLaMA 和 Chinese-LLaMA 均未开源模型权重。根据相应开源许可,本项目只能发布 LoRA 权重,无法发布完整的模型权重,请各位谅解。 本项目给出合并方式,请各位获取原版权重后自行重构模型。
项目结构
LaWGPT
├── assets # 静态资源
├── resources # 项目资源
├── models # 基座模型及 lora 权重
│ ├── base_models
│ └── lora_weights
├── outputs # 指令微调的输出权重
├── data # 实验数据
├── scripts # 脚本目录
│ ├── finetune.sh # 指令微调脚本
│ └── webui.sh # 启动服务脚本
├── templates # prompt 模板
├── tools # 工具包
├── utils
├── train_clm.py # 二次训练
├── finetune.py # 指令微调
├── webui.py # 启动服务
├── README.md
└── requirements.txt
数据构建
本项目基于中文裁判文书网公开法律文书数据、司法考试数据等数据集展开,详情参考中文法律数据汇总
https://github.com/pengxiao-song/awesome-chinese-legal-resources
-
初级数据生成:根据 Stanford_alpaca 和 self-instruct 方式生成对话问答数据 -
知识引导的数据生成:通过 Knowledge-based Self-Instruct 方式基于中文法律结构化知识生成数据。 -
引入 ChatGPT 清洗数据,辅助构造高质量数据集。
模型训练
LawGPT 系列模型的训练过程分为两个阶段:
-
第一阶段:扩充法律领域词表,在大规模法律文书及法典数据上预训练 Chinese-LLaMA -
第二阶段:构造法律领域对话问答数据集,在预训练模型基础上指令精调
二次训练流程
-
参考 resources/example_instruction_train.json
构造二次训练数据集 -
运行 scripts/train_clm.sh
指令精调步骤
-
参考 resources/example_instruction_tune.json
构造指令微调数据集 -
运行 scripts/finetune.sh
计算资源
8 张 Tesla V100-SXM2-32GB :二次训练阶段耗时约 24h / epoch,微调阶段耗时约 12h / epoch
模型评估
输出示例
问题:酒驾撞人怎么判刑?
问题:请给出判决意见。
问题:请介绍赌博罪的定义。
问题:请问加班工资怎么算?
问题:民间借贷受国家保护的合法利息是多少?
问题:欠了信用卡的钱还不上要坐牢吗?
问题:你能否写一段抢劫罪罪名的案情描述?
局限性
由于计算资源、数据规模等因素限制,当前阶段 LawGPT 存在诸多局限性:
-
数据资源有限、模型容量较小,导致其相对较弱的模型记忆和语言能力。因此,在面对事实性知识任务时,可能会生成不正确的结果。 -
该系列模型只进行了初步的人类意图对齐。因此,可能产生不可预测的有害内容以及不符合人类偏好和价值观的内容。 -
自我认知能力存在问题,中文理解能力有待增强。请诸君在使用前了解上述问题,以免造成误解和不必要的麻烦。
传送门
开源协议:No releases published
开源地址:https://github.com/pengxiao-song/LaWGPT
项目合集:https://github.com/OpenTechCol/OpenTechCol
「回复【加群】加入开源技术交流群,干货很多!」
-END-
原文始发于微信公众号(开源技术专栏):LaWGPT:基于中文法律知识的大语言模型
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/145682.html