这里推荐一个本地微调大模型的框架。
ZO2,一个仅用18G显存就能全参微调175B大模型的框架(当然也支持微调小一些的模型)。
更新:现在ZO2支持Qwen3啦,全参微调32B的版本只需要6GB显存。
Code: ***s://github***/liangyuwang/zo2 Paper: ***s://arxiv.org/abs/2503.12668。





友情链接:
电话:0715-4322833/4323710
邮箱:sales@tctlbx.com 、market@tctlbx.com
地址:中国·湖北·通城县银城路86号
传真:0715-4323710
邮编:437400