作者:SuperTi
链接:https://zhuanlan.zhihu.com/p/26198787248
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

前言

本次实战采用QWEN2.5的0.5b的小体量模型在弱智吧数据集上进行微调。

总所周知,弱智吧里面有很多问题十分的无厘头。这种无厘头的发问虽然在人类的角度来看其实大部分都是对中文语义的强行模糊,但对于模型来说确实锻炼模型逻辑能力的高质量预料。

通过本次实战,希望大家能够掌握以下技能:

1,如何快速获取廉价算力

2,如何在QWEN模型上进行全参微调

算力准备

新人注册专享,4步白嫖准则,老用户邀请再赚壕礼

限时特价卡1.98/时,性价比之选

除了震撼的新人福利外,我们还推出了限时特价卡活动,以回馈广大用户的支持与厚爱。即日起,每卡只需1.98/时,会员包月更能享受低至1.52/时的惊人优惠。这一价格不仅远低于市场平均水平,更是对你项目成本控制的强力支持。无论是小规模测试还是大规模部署,我们都能为你提供灵活、高效的算力解决方案。

环境配置

本次实战我们的硬件配置采用4090训练。由于模型体积很小,所以我们直接使用全量微调。训练框架采用

llamafactory。

硬件配置流程

如上图记录,我们选用一卡4090来训练。选好配置之后创建实例。

如上图所记录,我们的训练过程中包含了数据集下载,python环境安装和相关微调训练任务只有最后的训练需要

GPU资源,所以我们在创建实例之后先点击关机按钮,等待关机之后点击无卡模式开机按钮,节约资源。

如上图记录,我们先点击复制token按钮,然后点击进入jupyterlab。

第一次出现如下安全验证界面之后我们在里面粘贴我们刚刚复制的token。然后登陆。

数据集与模型准备

  1. 本次实战是用的0.5B的qwen2.5在弱智吧数据集上进行微调。首先开启conda功能,执行如下命令:
  2. 然后打开一个新终端。
  3. 接着创建环境:
  4. 安装完成之后进入环境
  5. 在环境里安装modelscope包,
    我们就是利用modelscope这个包下载数据集和模型
  6. 分别运行如下命令下载数据集和模型

模型训练

本次实战的训练框架是使用的llamafactory。框架安装命令如下:

我们在LLaMA-Factory下创建一个qwen-inference.yaml文件。配置内容如下:

然后在LLaMA-Factory目录下运行推理命令:

命令运行和加载模型完之后,我们用弱智吧的经典问题进行的测试:

可以看出,没有微调的模型的逻辑能力还是有些欠缺,有点胡言乱语接下来我们就开始微调。

我们需要进入llamafactory的工程目录下的data目录进行数据集的简单配置。进入data目录之后打开dataset_info.json添加如下配置:

其中的file_name更改为弱智吧的jsonl数据集的文件路径然后创建一个训练配置文件qwen2.5_full_sft.yaml

需要修改的路径:

  1. model_name_or_path字段的内容修改为自己下载的模型路径。
  2. output_dir字段内容修改为模型训练后的保存路径然后用如下命令进行训练

训练过程很快,如下图所示

训练完成之后,我们可以进行推理测试,只需要将之前的推理配置文件qwen-inference.yaml中的模型路径修改为我们训练之后保存的模型路径,然后运行推理命令:

加载完毕之后就可以开始测试

可以发现,大模型在训练了之后对部分问题是可以有逻辑的回答的。

立即行动,共创未来

选择SuperTi GPU算力租赁平台,就是选择了高性能、低成本、灵活便捷的云端解决方案。我们致力于以技术创新推动行业发展,让强大的计算能力成为你成功的坚实后盾。别再犹豫,立即访问我们的官方网站,开启你的云端算力特惠之旅!更多详情与咨询,请直接联系我们的客服团队。让我们携手并进,共创辉煌!

在SuperTi GPU算力租赁平台,每一次计算都是对未来的投资。现在,就让我们一起在云端驰骋,探索算力的无限可能!

立即点击下方卡片,开启您的算力租赁之旅吧!