直接想骂人了,qnmd,明明是二分类问题,告我四分类,缺陷概率和缺陷种类分不清,草,浪费我好几周时间,真的是无语。。。
batch_size = 100 使用迁移学习
基础实验
Resnet152+ maxpool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_auc减小学习率,因子0.2
Resnet152+ maxpool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_loss减小学习率,因子0.15
Resnet152V2+ maxpool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_loss减小学习率,因子0.2
Xception+ GlobAvgpool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_auc减小学习率,因子0.2
Xception+ Maxpool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_loss减小学习率,因子0.2
Xception+ GlobMaxPool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_loss减小学习率,因子0.2
DensNet121+ GlobMaxPool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_loss减小学习率,因子0.2
DensNet169+ GlobMaxPool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_loss减小学习率,因子0.2
注意力机制实验
seNet+Resnet152+ maxpool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_loss减小学习率,因子0.2
senet位于Dense层的前面
SENet效果- 原始ResNet152:87.39 -> ResNet152+SENet:88.06
类别权重实验
weightClass+Resnet152+ maxpool+Dense1000+BN+Dense200+BN+softmax + Adam +根据val_loss减小学习率,因子0.2
weightClass效果- 原始ResNet152:87.39 -> ResNet152+weightClass:89.41
模型融合实验
Resnet152+Xception+GlobMaxPool+Dense512+BN+Dense256+BN+softmax+ Adam +根据val_loss减小学习率,因子0.2
模型融合的效果实在太显著了,但是训练时长直接翻倍,成本增加
Resnet152+Xception效果- 原始ResNet152:87.39 原始Xception:85.14 ->ResNet152+Xception:91.67