第一部分:基本信息
论文MokA: Multimodal Low-Rank Adaptation for MLLMs已经被 NeurIPS 2025 接收并以 Oral 形式录用(即大会口头报告),这意味着它不仅被接受了,还属于会议中比较高质量的论文类型之一。
第二部分:解决的问题
(1)目前研究问题
①关键局限
我们发现当前大多数多模态高效微调方法存在一个关键局限:它们直接借鉴自单模态大语言模型(LLMs),往往忽视了多模态场景的固有差异,甚至影响了各模态信息的充分利用。基于这一实证观察,我们认为“单模态适配” 与 “跨模态适配”是多模态大语言模型(MLLMs)有效微调的两个核心环节。
②效率问题
然而,由于 LLMs 的参数量极其庞大,在下游任务上对这类模型进行全量微调,在多数情况下计算成本过高且效率低下。
(2)提出的解决方案
其中,LoRA 及其变体(这类