VL微调数据格式文件样例如下
在这里插入图片描述
一:微调数据集准备
1、制作微调数据集
在这里插入图片描述

首先找到data文件夹下方的mllm_demo.json,确认微调VL模型时的数据格式模板,然后按照模板,制作对应的指令微调数据集。
2、确认微调模型认知
在这里插入图片描述

打开identity.json文件,修改模型初步认知,确认微调后模型的名称和开发者,如下。
3、进入dataset_info.json,添加数据集,修改文件夹名称和对应标注json文件名即可
在这里插入图片描述

"****_vl_data(图片文件夹名称)": {
    "file_name": "****_vl_data.json(对应的json文件名称)",
    "formatting": "sharegpt",
    "columns": {
      "messages": "messages",
      "images": "images"
    },
    "tags": {
      "role_tag": "role",
      "content_tag": "content",
      "user_tag": "user",
      "assistant_tag": "assistant"
    }
  }

二:启动训练
1、先下载模型文件

2、web端启动命令

llamafactory-cli webui

配置参数
在这里插入图片描述
在这里插入图片描述
启动训练后使用显存大小:50924MiB≈49.7G(这个有大佬知道正常吗,7B参数按照这个训练要这么大的显存?),共143条数据,15Epoch所用时间为:40min
训练曲线如下所示
在这里插入图片描述
但是感觉没怎么收敛啊,准备在加几轮训练一下
修改参数:参数部分可参照该链接,说的很详细

https://blog.csdn.net/qq_62223405/article/details/149500255?fromshare=blogdetail&sharetype=blogdetail&sharerId=149500255&sharerefer=PC&sharesource=weixin_42225889&sharefrom=from_link

在这里插入图片描述
在15个epoch时模型训练稳定
在这里插入图片描述
中断训练,然后导出模型文件进行测试,完成训练

二:增加到一共300条数据,使用3B进行训练
配置如下
在这里插入图片描述
占用显存大小为:32364MiB≈31.6G
在这里插入图片描述
在这里插入图片描述
用时40分钟达到稳定,,epoch=12左右,中断测试

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐