上一期,我们已经实现了无监督学习多焦点和简单结构的无监督重建,本期将紧接着上期实现任意图片的高保真构建。在传统的计算全息(CGH)方法中,我们往往依赖迭代优化算法(如GS算法)或监督学习模型来实现目标光场的重建。然而,这些方法通常存在计算复杂、依赖标签数据、泛化能力有限等问题。无监督学习驱动的全息网络(Unsupervised Holographic Network)可以实现:1)不依赖真实标签数据;2)不需要复杂的人工标注;3)直接从物理模型中学习;4)实现高精度、实时的光场调控。
一、无监督学习
在全息成像任务中,理想输出(目标光场)虽然已知,但:
1)很难获得“输入-输出”对(即相位-光场的精确映射)因此,无监督学习成为一种更自然的选择:
核心思想:
利用物理传播模型作为“监督信号”
即:
相位(网络输出) → 光场传播(物理模型) → 与目标光场对比 → 计算损失
这本质上是一个:Physics-informed Learning(物理约束学习)
二、系统整体架构
整个无监督全息网络可以分为三个核心模块:
1)相位生成网络(Phase Generator)
- 输入:目标光强分布(Target Intensity)
2) 光场传播模型(Forward Model)
这是整个架构的关键:菲涅尔传播(Fresnel Diffraction)/ 高数值孔径物镜衍射积分网络、傅里叶光学传播(FFT-based propagation),这个过程必须是可微的(Differentiable)
3)损失函数(Loss Function)
常见设计:MSE(目标光强 vs 重建光强)、SSIM(结构相似性)、能量约束(Energy Constraint)