3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】
接下来跟着我实操,只需要3步,就可以在本地完成Qwen3的微调。而且全过程零代码,提供webui界面操作
本期又是一篇喂饭级教程
接下来跟着我实操,只需要3步,就可以在本地完成Qwen3的微调。
而且全过程零代码,提供webui界面操作
1.本地部署一个专注模型微调的开源项目;
2.准备数据集;
3.微调;
最后可以导出微调好的模型到ollama,对接到Cherry Studio中使用
做这次微调的前提是你本地已经能用Ollama跑本地模型,并且已经安装了Docker,以及安装了CUDA(版本至少大于11.6,官方推荐12.2)
可以在控制台输入nvidia-smi查看
以我的Windows系统为例,显卡是英伟达3060 ti 8G显存(这应该算是中偏下的显卡了吧),相信大多数人的配置都比我的好。
本地部署Llama-factory
首先我们需要本地部署一个零代码,专门用来微调大模型的开源项目:Llama-factory
它在GitHub目前已经斩获49K 超高Star
https://github.com/hiyouga/LLaMA-Factory
并且,这个项目还是我们国人开源的,作者是北京航空航天大学博士生-郑耀威
先通过git指令把源码拉取到本地
git clone https://github.com/hiyouga/LLaMA-Factory.git
如果没有git,也可以直接下载源码的zip包
然后我们还是使用docker-compose部署
首先,进入如下目录
在地址栏输入cmd,回车,进入控制台
在控制台输入docker-compose up -d
这个过程需要下载很多依赖,最终会构建一个33G左右的docker镜像。
整个下载过程可能要持续20分钟左右
看到如下日志就代表部署成功~
如果想启动webui,我们还需要进入llamafactory容器内部
docker compose exec llamafactory bash
然后执行 llamafactory-cli webui 启动webui
启动之后我们可以在浏览器访问llama-factory的webui页面啦
地址:127.0.0.1:7860
刚打开默认是英文,我们可以在左上角语言那里,下拉选择zh,配置成文中。
准备数据集
这一步是非常核心的环节,微调的效果很大程度上取决于准备的数据集质量。
如何采集、预处理实际需求中需要的高质量的数据集,可以放到后续的文章中分享。
今天我们主要目的是跑通整个微调流程。
魔搭社区集成了相当丰富的中文数据集(我们可以先搞个现成的来测试)
https://www.modelscope.cn/datasets
而且有很多分类可以选
咱们今天就找一个角色扮演(甄嬛)的数据集来微调(方便查看效果)
https://www.modelscope.cn/datasets/kmno4zx/huanhuan-chat
进来之后,可以在数据预览这里查看详细数据
有个注意事项,就是llama-factory目前只支持两种格式的数据集
如下图,Alpaca格式和Sharegpt格式
然后我们切换到数据集文件这边,打开huanhuan.json文件
可以看到它其实就是Alpaca格式的数据集,仅下载这一个文件即可
下载下来的数据集,我们放在项目根目录的data文件夹下
在llama-factory添加数据集,不仅要把数据文件放到data目录下,还需要在配置文件dataset_info.json里面添加一条该数据集的记录。
然后打开data文件夹中一个名为dataset_info.json的配置文件
添加一条huanhuan.json的json配置,保存
这样,我们新添加的数据集才能被llama-factory识别到
这里保存之后,webui那边会实时更新,不需要重启
微调
上面的准备工作都做好之后,我们就可以在llama-factory的webui上面配置微调相关的参数了。
本次我们的重点是微调,暂不对参数进行深入讲解。
llama-factory已经给了默认参数,接下来我们重点关注需要改动的地方即可。
首先是模型,我们选择此次需要微调的Qwen3-1.7B-Instruct
微调方式使用默认的lora即可
Base 版本(如 Qwen3-1.7B-Base)
基础预训练模型
没有经过指令微调
适合继续搞预训练或从头开始指令微调
通常情况下输出质量不如 Instruct 版本
Instruct 版本(如 Qwen3-1.7B-Instruct)
经过指令微调的模型
更适合直接对话和指令遵循
已经具备基本的对话能力
更适合用来进一步微调
往下拉,找到train(就是微调),选择我们刚刚配置好的嬛嬛数据集
训练轮数可以选择1轮,会快一些(如果后面发现效果不理想,可以多训练几轮),我这里最终选择了3轮,因为我发现仅1轮效果不佳。
由于我们的数据集都是一些短问答,可以把截断长度设置小一点,为1024(默认是2048)
预热步数是学习率预热采用的步数,通常设置范围在2-8之间,我们这里配置4,梯度累计设置为4
本次使用的是lora微调,所以还是得看看lora的参数配置
主要关注的就是lora秩,和lora缩放系数。
lora秩越大(可以看作学习的广度),学习的东西越多,微调之后的效果可能会越好,但是也不是越大越好。太大的话容易造成过拟合(书呆子,照本宣科,不知变通),这里设置为8
lora缩放系数(可以看作学习强度),越大效果可能会越好,对于一些用于复杂场景的数据集可以设置更大一些,简单场景的数据集可以稍微小一点。我这里设置256
到这里我们的参数就配置完毕。
接下来咱们就可以正式"炼丹"啦
拉倒最底部,点击开始
一般过几秒,就会在下面看到日志,橙色的条是进度条
webui的控制台这边也能看到日志
只要没有报错即可
开始之后,llama-factory如果没有找到模型,会先自动下载模型
模型下载完成之后,可以到下面这个目录查找下载好的模型
然后就是漫长的等待,我的微调了25分钟才搞定。
之前微调qwen3-4b的模型,仅1轮就耗费了1个小时40分钟
看到类似下面这条"训练完毕"就代表微调成功。
如果想重新微调,记得改一下下面红框中的两个值
微调成功后,在检查点路径这里,下拉可以选择我们刚刚微调好的模型
把窗口切换到chat,点击加载模型
加载好之后就可以在输入框发送问题,测试微调模型的回复效果了
如果想切换回微调之前的模型,只需要把检查点路径置空
然后在chat这里卸载模型,再加载模型即可
接下来我们就可以导出模型了
检查点路径选择我们刚刚微调好的模型
切换到export,填写导出目录/app/output/qwen3-1.7b-huanhuan
点击导出
注意:上面的路径前面固定填/app/output/,后面的文件夹名称可以自定义
导出完成之后就可以在项目根目录的output目录下,看到自己刚刚导出的qwen3-1.7b-huanhuan文件夹
里面就是导出的qwen3微调模型和相关文件
导入ollama,接入Cherry Studio
在导出模型所在文件夹的地址栏输入cmd 回车,进入当前目录的控制台
我们需要输入一个ollama命令(前提是先启动了ollama)
指令中的qwen3-1.7b-huanhuan是我自己起的名字(可自定义),这就是导入ollama后的模型名称
ollama create qwen3-1.7b-huanhuan -f Modefile
结果发现,报错了…无法导入
查了一下资料才发现,目前ollama还没有支持导入微调后的qwen3…
看下面这个issue,有位老哥提交了修复代码,但是官方说要后面自己实现。。
目前ollama官方最新版是v0.7.1我测试了一下,还是没有支持导入微调后的qwen3,所以这块得等官方修复了。
当然,我们可以先换成qwen2.5来进行微调
用上面同样的方式导出微调模型,然后导入到ollama
导入成功后,可以用ollama list指令查看
打开Cherry Studio,在设置->模型服务->ollama->管理里面就能看到刚刚导入的微调后的qwen2.5模型了
添加之后,就能在Cherry Studio的对话框里面选择微调好的模型啦~
纸上得来终觉浅,绝知此事要躬行,快去试试吧!
如何零基础入门 / 学习AI大模型?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?
”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人」
,毕竟AI时代,谁先尝试,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
👉 福利来袭
CSDN大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈
全套AGI大模型学习大纲+路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
👉 福利来袭
CSDN大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

欢迎来到由智源人工智能研究院发起的Triton中文社区,这里是一个汇聚了AI开发者、数据科学家、机器学习爱好者以及业界专家的活力平台。我们致力于成为业内领先的Triton技术交流与应用分享的殿堂,为推动人工智能技术的普及与深化应用贡献力量。
更多推荐
所有评论(0)