你有多久没调过kernelsize了?在下游任务上,Transformer明显优于传统CNN,这是因为Transformer本质更强吗?传统堆叠大量3x3卷积的CNN设计模式是最优的吗?最近,清华大学、旷视科技等机构的一项工作表明,CNN中的kernelsize其实是一个非常重要但总是被人忽略的设计维度:在现代模型设计的加持下,卷积核越大越暴力,既涨点又高效,甚至大到31x31都非常work。即便在大体量下游任务上,超大卷积核模型RepLKNet与Swin等Transformer相比,性能也更好或相当。论文


转载请注明地址:http://www.shancigua.com/scgyl/10349.html