场景2:微调大语言模型

操作流程

步骤一:准备训练数据集

本步骤主要介绍了准备模型训练所需数据的操作说明。

1.进入知识数据中心-数据集,创建数据集

2.填写数据集信息,类别选择微调,类型选择SFT-文本生成

3.进入创建好的数据集

选择“新增”或“导入”

这里以导入为例,下载数据模板,instruction为用户问题,output为模型回答,system为系统提示词,history可填写历史对话(history需注意保持模板数据格式)。填入训练数据后上传。

20

导入后,还可在线编辑调整,确认数据无误后,点击“发布”数据集方能生效,发布后不可编辑。如需继续修改,可通过“新增版本”

选择“继承已有版本数据”,确定后生成V0002版本,基于新的版本进行修改。

步骤二:创建训练任务

本步骤主要介绍了模型微调的操作配置方法。

1.创建训练任务,进入模型训练中心-模型训练,选择“创建训练任务”

任务类型选择模型微调

2.配置训练任务,包括训练对象、训练方法、训练数据集等

1)模型类型:

我的模型:在“模型管理”手动上传的模型,或者通过模型训练任务训练好的模型;

平台预置模型:平台预先上传的公共模型,包含通义千问系列的7B、14B、32B

72B大语言模型;

部门申请模型:在“模型广场”申请的其他部门公开模型,经对应部门管理员审批后可使用;

2)训练方法:

全参数微调:全参微调会在模型训练中更新模型的全量参数,一般效果较好,但模型训练时间较长。

LoRA(推荐):LoRA训练属于高效训练的一种,会在固定模型本身参数的基础上,仅对自注意力权重矩阵进行低秩分解,并更新低秩矩阵参数。该训练方法训练时间短,但效果可能会略差于全参微调。

QLoRA:QLoRA训练属于高效训练的一种,会在固定并量化模型本身参数的基础上,仅对自注意力权重矩阵进行低秩分解,并更新低秩矩阵参数。该训练方法训练时间短,但效果可能会略差于全参微调和LoRA。

3.配置训练任务的资源

资源组:1)“智能中枢(公共)”是平台提供了公共的训练池,可直接使用。平台会记录和

统计训练任务所消耗的卡时。2)其他的资源组均为部门管理员配置提供,具体可跟部门管理员咨询。

节点数:运行训练任务的工作节点。一个节点通常对应一台EGS主机。

节点规格:根据实际训练对象,选择适配的规格;

说明:推荐尽量将训练任务放在同一个节点运行,不同节点之间会有较大的数据传输通讯开销,整体训练速度可能反而不如单节点运行的快。

4.超参数配置,根据实际情况调整

5.完成训练

点击“确认”后即可自动开始运行训练任务。进入训练任务详情页,可查看对应任务的“运行日志”,以跟踪观测任务运行细节。直至任务状态变成“运行完成”。

步骤三:保存模型

从训练完成的任务中,将模型保存到模型仓库。点击对应版本训练任务的“保存模型”。

勾选“model-out”合并保存模型层和Lora训练层(推荐),也可根据实际需要仅保存Lora训练层(进阶需求,不推荐)

选择归属模型后,将为对应模型生成一个新的版本。也可以点击“新建模型”创建一个全新的模

型。

步骤四:评测模型

本步骤主要目的事评估模型的表现是否符合预期,如果不符合预期,需要重复步骤二,优化模型表现。

1.创建评测数据集

进入“知识数据中心-数据集”,点击“创建数据集”。数据类别选择“评测”,数据新增、导入的主要步骤跟“步骤一”一致,最终发布后生效。

2.创建评测任务

进入“模型评测中心-模型评测”,点击“创建评测任务”。配置参评对象及评测数据

1)评测对象

基础模型:模型仓库中的模型,含我的模型、平台预置模型、部门申请模型

模型服务:已在“在线服务”部署完成的推理服务(待上线)

RAG应用:在“应用管理”中构建的智能体应用(待上线)

2)自定义推理参数(可选),调整评测对象的推理参数。

3.评测打分方式

人工评测:需要人工参与,逐条为每个评测问题的模型回答进行打分,分数范围1-5分。

裁判模型:裁判模型自动打分,根据实际评测场景选择模型配置参数,场景包括“回答确定性问题”、“回答开放性问题”、“角色扮演”、“代码生成修改分析”等12类,分数范围1-5分。

4.资源规格,根据需要选择运行评测任务所需的资源。

5.点击确认后,评测任务即开始运行。可通过“状态”观测任务运行状态,通过“运行日志”追踪更明细的运行信息。

6.运行完成后,“人工评测”类型的任务,可进入“标注”环节。“裁判模型”类型的任务,会直接生成评测报告。

7.对模型回答问题进行逐个评价,包括综合得分评价和答案问题的标签。

8.全部完成提交后,即可生成评测报告。后续可根据报告综合得分对比不同版本模型的整体

效果。也可根据问题标签对模型表现进行针对性优化。

后续操作

1.模型部署:对符合预期的模型,可进入“在线服务”部署,部署完成后即可提供推理服务API。

2.模型注册:将部署好的模型服务进行注册,也可以将平台外部(符合openAI规范)的模

型服务注册过来,供“应用管理”中编排应用时选用。

results matching ""

    No results matching ""