这些应用场景包括让聊天机器人处理产品支持问题,或作为管理日程的个人助理。但如何让小语言模型(SLM)在执行专用的代理式任务时持续以高准确率进行响应,仍然是一个挑战。
这正是微调发挥作用的地方。
Unsloth 是全球范围内应用极为广泛的开源大语言模型(LLM)微调框架之一,为模型定制打造了一条简单易操作的路径。它专门针对 NVIDIA GPU 展开了高效且低显存占用的训练优化,适配范围涵盖 GeForce RTX 系列的台式机与笔记本电脑、RTX PRO 工作站,还有全球体积最小的 AI 超级计算机 DGX Spark。
另一个强大的微调起点是刚刚发布的 NVIDIA Nemotron 3 系列开放模型、数据和代码库。Nemotron 3 引入了目前最高效的开放模型系列,适合用于代理式 AI 的微调。
教会 AI 新招式
微调就像是为 AI 模型进行一次有针对性的训练。通过与特定主题或工作流程相关的示例,模型可以学习新的模式并适应当前任务,从而提升准确性。
为模型选择哪种微调方法,取决于开发者希望对原始模型进行多大程度的调整。根据不同目标,开发者可以采用三种主要的微调方法之一:
参数高效微调(如 LoRA 或 QLoRA):
● 工作原理:仅更新模型的一小部分,以更快、更低成本完成训练。这是一种在不大幅改变模型的情况下提升能力的高效方式。
● 适用场景:几乎适用于所有传统需要完整微调的场景,包括引入领域知识、提升代码准确性、使模型适配法律或科学任务、改进推理能力,或对语气和行为进行对齐。
● 要求:小到中等规模的数据集(100–1,000组示例提示词对)。
完整微调:
● 工作原理:更新模型的所有参数,适用于训练模型遵循特定格式或风格。
● 适用场景:高级应用场景,例如构建 AI 智能体和聊天机器人,这些系统需要围绕特定主题提供帮助、遵循既定的约束规则,并以特定方式进行响应。
● 要求:大规模数据集(1,000+ 组示例提示词对)。
强化学习:
● 工作原理:借助反馈或偏好信号对模型行为加以调整。模型在与环境的交互过程中完成学习,并依托反馈持续优化自身性能。这属于一项复杂的高级技术,把训练和推理相互融合,还能与参数高效微调和完整微调技术搭配运用。具体内容可查阅Unsloth的强化学习指南。
● 适用场景:提升模型在特定领域(如法律或医学)中的准确性,或构建能够为用户设计并执行动作的自主智能体。
● 要求:一个包含行为模型、奖励模型和可供模型学习的环境的流程。
另一个需要考虑的因素是各种方法的显存需求。下表提供了在 Unsloth 上运行每种微调方法的需求概览。
Unsloth:在 NVIDIA GPU 上实现快速微调的高效路径
LLM 微调是一种对内存和计算要求极高的工作负载,在每个训练步骤中都需要进行以十亿次记的矩阵乘法来更新模型权重。这类重型并行计算需要依托 NVIDIA GPU 的强大算力,才能高效、快速地完成。
Unsloth 在这类负载中表现出色,可将复杂的数学运算转化为高效的定制 GPU kernel,从而加速 AI 训练。
Unsloth能够让Hugging Face transformers库在NVIDIA GPU上的性能提升到原来的2.5倍。它针对GPU的优化与自身的易用特性相融合,让微调技术对于更多AI爱好者和开发者来说变得更加容易掌握。
框架专为 NVIDIA 硬件构建并优化,覆盖从 GeForce RTX 笔记本电脑,到 RTX PRO 工作站以及 DGX Spark,在降低显存占用的同时提供巅峰性能。
Unsloth 提供了一系列实用的指南,帮助用户快速上手并管理不同的 LLM 配置、超参数和选项,以及示例 notebook 和分步骤工作流程。
查看链接了解如何在 NVIDIA DGX Spark 上安装 Unsloth。阅读 NVIDIA 技术博客,深入了解在 NVIDIA Blackwell 平台上进行微调和强化学习的相关内容。
现已发布:NVIDIA Nemotron 3 开放模型系列
全新的Nemotron 3开放模型系列涵盖Nano、Super和Ultra三种规模,它依托全新的异构潜在混合专家(Mixture-of-Experts, MoE)架构构建而成,是一套兼具领先准确率与高效率的开放模型系列,十分适合用来搭建代理式AI应用。
目前已发布的 Nemotron 3 Nano 30B-A3B 是该系列中计算效率最高的模型,针对软件调试、内容摘要、AI 助手工作流和信息检索等任务进行了优化,具备较低的推理成本。其异构 MoE 设计带来以下优势:
● 推理 token 数量最多减少 60%,显著降低推理成本。
● 支持 100 万 token 的上下文处理能力,使模型在长时间、多步骤任务中能够保留更多信息。
Nemotron 3 Super 是一款面向多智能体应用的高精度推理模型,而 Nemotron 3 Ultra 则适用于复杂的 AI 应用。这两款模型预计将在 2026 年上半年推出。
NVIDIA 于 12 月 15 日还发布了一套开放的训练数据集合集以及先进的强化学习库。Nemotron 3 Nano 的微调现已在 Unsloth 上提供。
Nemotron 3 Nano 现可在 Hugging Face 获取,或通过 Llama.cpp 和 LM Studio 进行体验。
DGX Spark:紧凑而强大的 AI 算力引擎
DGX Spark 支持本地微调,将强大的 AI 性能集成在紧凑的桌面级超级计算机形态中,让开发者获得比普通 PC 更多的内存资源。
DGX Spark 依托 NVIDIA Grace Blackwell 架构构建,FP4 AI 性能峰值可达 1 PFLOP,同时搭载 128GB CPU-GPU 统一内存,助力开发者在本地运行更大规模的模型、处理更长的上下文窗口,以及开展更高负载的训练任务。
在微调方面,DGX Spark 可实现:
●支持更大规模的模型。参数规模超过 30B 的模型往往会超出消费级 GPU 的VRAM 容量,但可以轻松运行在 DGX Spark 的统一内存中。
●支持更高级的训练技术。完整微调和基于强化学习的工作流对内存和吞吐量要求更高,在 DGX Spark 上运行速度显著更快。
●本地控制,无需云端排队。开发者可以在本地运行高计算负载任务,无需等待云端实例或管理多个环境。
DGX Spark 的优势并非只体现在 LLM 领域。高分辨率扩散模型对内存的需求往往超出普通桌面系统的承载能力。而凭借 FP4 支持与大容量统一内存,DGX Spark 能在短短几秒内生成 1000 张图像,还能为创意类或多模态工作流带来更出色的持续吞吐量。
下表展示了在 DGX Spark 上对 Llama 系列模型进行微调的性能表现。
随着微调工作流的不断发展,全新的 Nemotron 3 开放模型系列为 RTX 系统和 DGX Spark 提供了可扩展的推理能力与长上下文性能优化。
#别错过 — NVIDIA RTX AI PC 的最新进展
FLUX.2 图像生成模型现已发布,并针对 NVIDIA RTX GPU 进行优化
Black Forest Labs 推出的新模型支持 FP8 量化,可降低显存占用并将性能提升40%。
Nexa.ai 通过 Hyperlink 为 RTX PC 扩展本地 AI,实现代理式搜索
这款本地搜索智能体的全新版本,能让检索增强生成(RAG)的索引速度提高3倍,LLM推理速度加快2倍——原本一个1GB高密度文件夹的索引耗时约15分钟,现在仅需4到5分钟就能完成。此外,DeepSeek OCR目前已借助NexaSDK以GGUF格式实现本地运行,在RTX GPU上可即插即用,轻松解析图表、公式以及多语言PDF文件。
Mistral AI 发布全新模型家族,并针对 NVIDIA GPU 进行优化
全新的 Mistral 3 模型从云端到边缘端均经过优化,可通过 Ollama 和 Llama.cpp 进行快速的本地实验。
Blender 5.0 正式发布,带来 HDR 色彩与性能提升
本次版本更新新增了ACES 2.0广色域/HDR色彩支持,同时加入NVIDIA DLSS技术,该技术能使毛发与皮毛的渲染速度提升最高5倍;此外,还优化了对大规模几何体的处理能力,并且为Grease Pencil添加了动态模糊效果。
《桃源记2》中石作的建造方式
发布时间:2025-11-26
《英雄联盟手游》5.3d版本更新内容全知晓
发布时间:2025-11-27
《央视影音》把视频保存至手机相册的方法汇总
发布时间:2025-11-27
《原神》中罗莎莉亚圣遗物词条的搭配攻略
发布时间:2025-11-28
《英雄冒险团》战士属性加点攻略分享
发布时间:2025-11-28
《画世界》中向下合并图层的操作方法
发布时间:2025-11-29
第五人格毛利小五郎皮肤好不好?来看第五人格毛利小五郎皮肤介绍
发布时间:2025-11-29
《羊了个羊12月23日通关攻略,12.23过关技巧大揭秘》
发布时间:2025-11-30