手机浏览器扫描二维码访问
特征均有意义、需保留所有特征
4.ElasticNet(弹性网络):L1与L2的结合
为兼顾L1的“特征选择”
和L2的“抗共线性”
,ElasticNet同时引入L1和L2惩罚项,损失函数为:其中控制L1强度,控制L2强度。
适用场景:特征维度极高且存在多重共线性的场景(如基因数据,特征数远大于样本数,且基因间存在相关性)。
三、深度学习中的正则化方法
深度学习模型(如cNN、transformer)参数规模庞大(动辄千万级),过拟合风险更高,除了上述L1L2,还需针对性的正则化技术。
1.权重衰减(weightdecay)
本质
:深度学习中L2正则化的常用实现方式,通过在优化器中直接对参数进行“按比例衰减”
(如SGd、Adam优化器均支持weight_decay参数)。
原理
:每次参数更新时,先将参数乘以一个小于1的系数(如0.99),再进行梯度下降,等价于在损失函数中加入L2惩罚项。
注意
:权重衰减仅作用于权重参数,不作用于偏置项和batchNorm的参数(因这些参数对模型复杂度影响小)。
2.dropout(随机失活)
原理
(以全连接层为例):训练时,随机“关闭”
(置为0)一部分神经元(比例由参数p控制,通常取0.2~0.5),迫使模型不依赖某一特定神经元,学习更鲁棒的特征;测试时,不关闭任何神经元,而是将所有神经元的输出乘以
就是(或对权重进行缩放),保证输出分布一致。
示例
:一个含100个神经元的全连接层,p=0.5时,每次训练迭代会随机选择50个神经元置为0,仅用剩余50个神经元计算;测试时,100个神经元全部激活,输出乘以0.5。
核心作用
:避免“神经元共适应”
(即多个神经元依赖彼此的错误特征),模拟“集成学习”
(每次训练都是一个不同的小模型,测试时融合所有小模型的预测)。
3.batchNormalization(批量归一化,bN)
原理
:对每一层的输入数据进行“标准化”
(使数据均值为0、方差为1),并引入可学习的缩放参数和偏移参数,增强模型灵活性。
正则化效果
:训练时,bN使用“批次内数据的均值和方差”
,测试时使用“训练过程中移动平均的均值和方差”
,这种差异会给模型带来微小的噪声,间接抑制过拟合。
附加价值
北漂小子袁夙因一次意外竟然重生到另一个平行世界2010年的美国,并获得神秘篮神系统,开启了一段全新的人生之路!看到系统送出的奖励,袁夙简直要抓狂了!马龙之肘我可以理解,巴克利之臀我也可以忍,罗德曼之鞭是个什么鬼玩意!新书开启,希望乘客们多多收藏多多推荐,话不多说,跟着小哥赶紧上车吧!本站提示各位书友要是觉得篮神供应商还不错的话请不要忘记向您QQ群和微博里的朋友推荐哦!...
...
本文将于10月26日周三入v,当天三更,请多支持,十分感谢!单元故事,每个故事不同世界主角,重生,甜文,涉及现代古代未来星际末日远古西幻等。非快穿,是重生故事合集。现代重生死的惨重生后玩养成的高傲富家大小姐x渣男丈夫和白月光的私生子远古重生穿越远古丛林死后大彻大悟重生后不想再作决心照顾傻鸟好妹子x傻白甜远古丛林猛禽傻鸟末世重生重生前并不喜欢弟弟重生后改变想法决定当个好姐姐x无亲缘关系瞎子温润如玉好弟弟未来重生重生前觉得人人都不喜欢自己但重生后拥有了读心术发现并不是这样的妹子x无血缘关系外表严肃冷淡内心活泼痴汉好哥哥西幻重生重生前典型光明圣女人设被谋杀后变成美艳村姑妹子x暗恋自己从前马甲的阴沉孤僻黑暗法师等等各种妹子重生后的故事。注意小兵的书友提供的重生攻略手札是扶华写作的一部好书,如果大家都喜欢重生攻略手札最新章节内容,勿必支持下作者扶华购买正版图书收藏。感谢书友们的陪伴。...
(新书憋宝人已经上传)三十年前,一支神秘的勘探队在大兴安岭深处全军覆灭,只有谷爷爬回来,背上刻满了地图,手掌上刻着三十年后三十年后,谷爷的外孙小七,在北京过着皮货店掌柜的悠闲生活,突然间得知一位猎人死在大兴安岭林子里,临死前扒开桦树皮,咬断手指在树干上血书小七的名字为查明真相,东家组队上山,却发现另有两支队伍也在暗暗行动。经历种种后,他们被莫名的力量引到阴山狼城。这座神秘的城池,不仅没有城门,里面还遍布着巨大的人骨坑,狼窟,巨大的狼形石雕,半空中悬挂着手腕粗的铁链子,风干的肉干。一个足以颠覆想象的宿命轮回抹平了时间的痕迹...
穿越到一个又黑又丑又胖的刁蛮村妇身上怎么办?穿越到正在强人所难的时候怎么办?一次中奖,马上当妈,怎么办?想想原主的记忆,将来的一对双胞胎宝宝真是又可爱又可怜,孩子他爹,也是帅出天际那她就勉强收了吧!至于黑胖丑,没关系,把被妹妹骗走的金手指抢回来就好了!...
愤怒的炽金瞳,燃烧着绝望的泪水。是谁哭泣的声音,惊扰了我的长眠。神?吃掉不就好了!...