论文标题:FreeFusion: Infrared and Visible Image Fusion via Cross Reconstruction Learning
论文地址:https://ieeexplore.ieee.org/document/11010882
一、创新点
- FreeFusion不依赖任何手工设计的融合损失函数,而是通过交叉重建学习(Cross Reconstruction Learning, CRL)来自动融合源图像的互补信息。这种方法避免了传统方法中因手工设计损失函数而导致的融合图像可能丢失重要特征的问题。
- 提出了一种交叉重建学习框架,通过将融合特征解耦并重建另一种模态的源图像(即红外图像重建可见光图像,反之亦然),迫使网络学习两种模态特征的域对齐(domain alignment)。
二、方法
本文提出了一种名为FreeFusion的红外与可见光图像融合方法,其主要研究方法是通过交叉重建学习(Cross Reconstruction Learning, CRL)和动态交互融合(Dynamic Interactive Fusion, DIF)来实现无需手工设计融合损失函数的图像融合。具体而言,CRL通过将融合特征解耦并重建另一种模态的源图像,迫使网络学习两种模态特征的域对齐,从而确保融合特征能够全面保留源图像的重要信息。DIF则通过构建融合特征与目标语义特征之间的相关性矩阵,增强强相关特征并抑制弱相关特征,从而克服不同任务之间的语义不匹配问题,实现融合特征与语义特征之间的自然语义兼容性。在训练阶段,通过共享解码器参数来提高网络的鲁棒性,最终在推理阶段直接利用融合特征生成高质量的融合图像。
1.FreeFusion方法的动机示意图
本图展示了本文提出的FreeFusion方法的核心动机和设计思路。图中分为两部分:(a) 现有红外与可见光图像融合(IVIF)方法的局限性,以及 (b) FreeFusion方法的设计理念。 在(a)部分,现有方法通过设计像素强度和结构损失函数来保留源图像的有用信息,但这些方法无法充分解决源图像之间的域差异问题。在(b)部分,FreeFusion方法的核心思想被提出。该方法不依赖任何手工设计的融合损失函数,而是通过交叉重建学习(Cross Reconstruction Learning, CRL)实现域对齐,并通过动态交互融合(Dynamic Interactive Fusion, DIF)解决语义不匹配问题。
2.不同方法的融合损失函数对比与定量比较
本图展示了两部分内容:左侧是不同红外与可见光图像融合(IVIF)方法所采用的手工设计融合损失函数的对比,右侧则是本文方法与其他最先进方法在Potsdam数据集上的定量性能比较。 在左侧部分,图中通过符号“✓”和“✗”展示了多种现有IVIF方法是否使用了特定的融合损失函数。例如,L1损失、L2损失、结构相似性(SSIM)损失等被广泛用于约束融合图像保留源图像的纹理、边缘和结构信息。这些手工设计的损失函数虽然在一定程度上能够指导融合网络保留某些特征,但它们可能无法全面覆盖源图像的所有重要信息,从而导致融合结果存在局限性。在右侧部分,图中通过柱状图展示了本文提出的FreeFusion方法与其他几种最先进方法在Potsdam数据集上的定量性能比较。性能指标包括熵(EN)、标准差(SD)、空间频率(SF)、平均梯度(AG)、结构内容差异(SCD)和视觉保真度(VIF)。
3.FreeFusion整体框架示意图
本图展示了本文提出的FreeFusion方法的整体框架,详细说明了该方法如何通过交叉重建学习(Cross Reconstruction Learning, CRL)和动态交互融合(Dynamic Interactive Fusion, DIF)实现红外与可见光图像的高效融合。该框架的核心在于不依赖手工设计的融合损失函数,而是通过学习逆映射知识来自适应地融合源图像的互补信息。在框架中,首先通过红外编码器(Φir E,j)和可见光编码器(Φvis E,j)从输入的红外图像(Iir)和可见光图像(Ivis)中提取特征。这些特征随后被送入动态交互融合模块(DIFj),其中融合特征(Fu,j)通过构建与目标语义特征(Fs,j)之间的相关性矩阵来实现语义兼容性。这一过程不仅增强了融合特征与语义特征之间的关联,还通过查询级交互进一步优化了特征表示。 接下来,融合特征被送入特征解耦模块(ΦFDM,j),该模块将融合特征解耦为两种模态的特征,并分别用于重建另一种模态的源图像(即红外特征重建可见光图像,反之亦然)。这一交叉重建过程迫使网络学习两种模态特征的域对齐,确保融合特征能够全面保留源图像的重要信息。
4.实验
本表展示了在 Potsdam 数据集上,不同交互方式对融合结果和语义分割性能的影响,旨在验证本文提出的跨任务交互模块 Φ CTIM 的有效性。表中列出了多种方法的融合性能指标(包括熵 EN、标准差 SD、空间频率 SF、平均梯度 AG、结构内容差异 SCD 和视觉保真度 VIF)以及语义分割性能指标(mDice 和 mAcc)。 从表中可以看出,简单聚合操作(如 Concatnate 和 Summary)由于直接融合了存在语义不匹配的特征,导致融合特征缺乏足够的信息(例如像素强度和梯度信息)。这些方法在融合性能上表现不佳,尤其是在 EN、SD、SF 和 AG 等关键指标上,无法有效保留源图像的细节和对比度信息。此外,这些方法在语义分割任务上的表现也较差,mDice 和 mAcc 的值较低,表明分割精度不足。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。