

新闻资讯
技术学院小样本数据增广的核心是“变准”而非“变多”,需围绕判别性特征做可控扰动,保留关键结构、抑制背景干扰,并结合领域感知的几何与色彩组合增广、自监督伪标签及严格验证策略。
训练集只有几十或几百张图时,简单堆叠随机旋转、翻转往往无效,甚至引入噪声。真正有效的增广,是围绕类别判别性特征做可控扰动:保留关键纹理、边缘、局部结构,抑制无关背景干扰。比如医学细胞图像,要保细胞核形态不变;花卉识别则需稳定花瓣轮廓与色块分布。
不建议直接套用 torchvision 的默认 RandomAugment。应分步设计:
Compose(..., p=1.0) 强制每轮必应用一组协同变换,而非多个独立随机操作当标注极少但有同源未标注数据(如同一设备拍的额外图像),可用轻量自监督模型(如 SimCLR 小网络)先提取特征,对近邻样本做一致性增强:
的 soft-target 部分这比纯生成式增广(如 GAN)更稳定,且不依赖生成质量。
测试时若仍开启 RandomResizedCrop 或 Cutout,会导致同一张图多次前向结果不一致,小样本下指标波动剧烈。正确做法是:
基本上就这些。增广不是魔法,是帮模型聚焦该学的东西——尤其在样本少的时候,每一张“造出来”的图,都得有明确的教学意图。