能否用零样本自监督的方法微调基础模型?

可以的,你提到的零样本自监督方法(如Noise2Noise、Noise2Void、盲点网络等)的核心思想是从数据本身构造监督信号,这与基础模型的预训练理念其实是相通的。

这种方法的核心在于利用基础模型(Foundation Model, FM)强大的先验知识(Priors),同时利用自监督机制让模型适应特定数据的分布(Instance-specific Distribution)。

你提到的手段(下采样、盲点、加噪),实际上是在构建一个 自监督代理任务 (Self-Supervised Pretext Task)。

我不知道我理解的对不对,所以仅供参考,你想做的应该是测试时适应 (Test-Time Adaptation, TTA),基于你上面说的方法,可以总结为:

盲点预测类似于 NLP 中的 Masked Language Modeling (MLM) 或图像中的 Masked Image Modeling (MIM)。

对输入 x 进行随机掩码(Masking),得到 xmasked。伪GT为,原始输入 x 或被掩盖部分的像素/Token。微调目标是最小化 ∣∣fθ(xmasked)−x∣∣。通过强迫模型利用周围信息恢复被掩盖部分,模型会学习到当前数据的特定纹理或上下文结构,同时由于噪声通常是独立的,模型倾向于恢复信号而非噪声。可以参考Noise2Void

https://arxiv.org/abs/1811.10980

基于下采样的话就是在超分辨率(Super-Resolution)任务中非常常用

将测试图像 x 下采样为 xlow。伪GT为原始测试图像 x,目标是让模型将 xlow 超分回 x,即 ∣∣fθ(xlow)−x∣∣。

这里的原理是假设图像内的统计特征在不同尺度上是重复的(自相似性)。模型在这个“更小”的任务上学会了该图像的退化核(Blur kernel)和纹理特征,然后应用到原始尺寸上。

如果是改变噪声/加噪 (Noise Perturbation),可以试试Noise2Self 或 Noisy-As-Clean 策略

https://arxiv.org/abs/1901.11365https://arxiv.org/abs/1906.06878

向输入 x 添加额外的人工噪声 n,得到 x+n。然后训练模型怎么去噪声,只要模型网络结构或正则化项限制了模型无法直接学习恒等映射(Identity Mapping),它就会被迫学习去除噪声的模式。

不知道我理解你的意思对不对,所以供参考

原始链接: https://www.zhihu.com/question/1972617079921304158/answer/1981810488896669140
侵权请联系站方: [email protected]

相关推荐

换一批