news 2026/3/10 9:33:28

【Z-Image-Turbo 量化模型】svdq-int4 / fp4 多版本对比与下载说明svdq-int4_r256-z-image-turbo.safetensors

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【Z-Image-Turbo 量化模型】svdq-int4 / fp4 多版本对比与下载说明svdq-int4_r256-z-image-turbo.safetensors

【Z-Image-Turbo Nunchaku 量化模型下载】svdq-int4 / fp4 多版本对比与下载说明 svdq-int4_r256-z-image-turbo.safetensors

关键词:Z-Image-Turbo、SVDQuant、INT4、FP4、Diffusion 模型量化、ICLR2025
最近在折腾文生图模型的推理性能优化时,接触到了Nunchaku 团队基于 Z-Image-Turbo 的 SVDQuant 量化版本,实际体验下来,对显存占用和推理速度的改善非常明显,这里做一次完整梳理和记录。

模型下载地址(网盘链接)

本文主要介绍以下五个常用模型文件 可通过网盘获取:

  • svdq-int4_r256-z-image-turbo.safetensors
  • svdq-int4_r128-z-image-turbo.safetensors
  • svdq-fp4_r128-z-image-turbo.safetensors
  • svdq-int4_r32-z-image-turbo.safetensors
  • svdq-fp4_r32-z-image-turbo.safetensors

👉网盘下载地址:
https://pan.quark.cn/s/472aeef09aa4?pwd=fCD2


一、模型背景说明

Z-Image-Turbo是 Tongyi-MAI 推出的高性能文生图模型,在生成质量和速度之间做了比较好的平衡。

Nunchaku团队基于 ICLR 2025 的论文成果SVDQuant,对该模型进行了4bit 级别量化,在尽量不损失画质的前提下,大幅降低了显存和算力需求。


二、模型核心信息一览

base_model:Tongyi-MAI/Z-Image-Turbobase_model_relation:quantizeddatasets:-mit-han-lab/svdquant-datasetslibrary_name:diffuserspipeline_tag:text-to-imagelicense:apache-2.0language:-entags:-image-editing-SVDQuant-Z-Image-Turbo-Diffusion-Quantization-ICLR2025

三、项目与模型展示


四、模型说明(Model Card 摘要)

1️⃣ 基本介绍

  • 模型名称:nunchaku-z-image-turbo
  • 模型类型:Text-to-Image / Image Editing
  • 开发团队:Nunchaku Team
  • 原始模型:Tongyi-MAI / Z-Image-Turbo
  • 许可证:Apache-2.0

该仓库包含的是Nunchaku 优化后的 Z-Image-Turbo 量化模型版本,主打高效推理 + 低显存占用


2️⃣ 量化方式说明(重点)

显卡类型数据类型
50 系列以下显卡INT4
50 系列(Blackwell)NVFP4

Rank(低秩分解维度)说明:

  • r32:速度最快,画质一般
  • r128:速度与质量平衡(推荐)
  • r256:质量最高,速度最慢

五、模型文件对照表

标准推理模型(通用)

数据类型Rank模型文件名
INT4r32svdq-int4_r32-z-image-turbo.safetensors
INT4r128svdq-int4_r128-z-image-turbo.safetensors
INT4r256svdq-int4_r256-z-image-turbo.safetensors
NVFP4r32svdq-fp4_r32-z-image-turbo.safetensors
NVFP4r128svdq-fp4_r128-z-image-turbo.safetensors

📌个人建议

  • 显存 8G~12GINT4 r128
  • 追求画质INT4 r256
  • 50 系显卡:优先FP4 r128

六、使用方式说明

1️⃣ Diffusers 使用

官方示例代码在这里:

  • 示例脚本:
    https://github.com/nunchaku-tech/nunchaku/blob/main/examples/v1/z-image-turbo.py

  • 使用文档:
    https://nunchaku.tech/docs/nunchaku/usage/zimage.html


2️⃣ ComfyUI 工作流

  • 官方工作流 JSON:
    https://nunchaku.tech/docs/ComfyUI-nunchaku/workflows/zimage.html#nunchaku-z-image-turbo-json

对于习惯ComfyUI 可视化工作流的用户来说,几乎是即插即用。


七、性能表现参考

从官方测试图可以看到:

  • 4bit 量化后显存占用大幅下降
  • 推理速度在中低端显卡上提升明显
  • 对生成质量影响相对可控(尤其 r128 / r256)


九、参考与来源

  • 推理引擎:
    https://github.com/nunchaku-tech/nunchaku
  • 量化工具:
    https://github.com/nunchaku-tech/deepcompressor
  • 论文:
    https://arxiv.org/abs/2411.05007
  • 在线 Demo:
    https://demo.nunchaku.tech

十、写在最后

如果你正在做本地文生图部署、ComfyUI 工作流优化、低显存显卡推理,这套Z-Image-Turbo 的 SVDQuant 版本确实值得尝试。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/9 1:09:52

YOLOFuse模型大小对比:小显存设备推荐使用中期特征融合

YOLOFuse模型大小对比:小显存设备推荐使用中期特征融合 在智能安防、自动驾驶和夜间监控等实际应用中,单一可见光摄像头在低光照、雾霾或遮挡环境下常常“力不从心”——图像模糊、细节丢失,导致目标检测性能急剧下降。而红外成像虽能在黑暗中…

作者头像 李华
网站建设 2026/3/9 1:52:28

YOLOFuse模型压缩尝试:剪枝量化对融合性能的影响研究

YOLOFuse模型压缩尝试:剪枝量化对融合性能的影响研究 在智能安防、自动驾驶和夜间监控等现实场景中,单一可见光摄像头常常“看不清”——低光照下噪点多,烟雾环境中细节丢失,极端天气里误检频发。这些问题暴露了传统目标检测系统的…

作者头像 李华
网站建设 2026/3/9 0:02:31

YOLOFuse日志与权重保存机制详解:定位训练输出文件路径

YOLOFuse日志与权重保存机制详解:定位训练输出文件路径 在多模态目标检测的实际开发中,一个看似简单却频繁困扰开发者的问题是:“我训练完的模型到底存哪儿了?” 尤其是在使用像 YOLOFuse 这类基于 Ultralytics 架构扩展的框架时&…

作者头像 李华
网站建设 2026/3/9 19:37:16

YOLOFuse防骗指南:不要轻信‘免费激活码’类诱导信息

YOLOFuse防骗指南:不要轻信‘免费激活码’类诱导信息 在智能监控系统日益普及的今天,一个现实问题困扰着许多开发者和项目团队:如何让目标检测模型在夜间、雾霾或强阴影环境下依然“看得清”?单纯依赖可见光摄像头的传统方案早已…

作者头像 李华
网站建设 2026/3/8 14:01:28

YOLOFuse手势识别交互界面设计

YOLOFuse手势识别交互界面设计 在智能家居、车载系统和工业控制场景中,用户越来越期待“无接触”的自然交互方式。然而,当灯光变暗、手部被部分遮挡或背景复杂时,传统基于RGB摄像头的手势识别系统往往表现不稳定——检测延迟增加、误识别频发…

作者头像 李华
网站建设 2026/3/8 4:16:44

【TinyML模型精度优化秘籍】:C语言部署中提升推理准确率的5大核心技巧

第一章:TinyML模型精度优化的挑战与机遇在资源极度受限的嵌入式设备上部署机器学习模型,TinyML 技术正逐步打破传统 AI 的边界。然而,在微控制器等低功耗设备上实现高精度推理面临诸多挑战,同时也孕育着技术创新的广阔空间。模型压…

作者头像 李华