top of page
08 - 正則化點樣幫手收乾「過擬合」?
喺深度學習世界,過擬合 (overfitting) 就似補習天王死背題庫:模擬考 100 分,一到正式考試換少少字眼就全軍覆沒。正則化=老師箍住學生唔畀照抄,迫佢真正理解。以下用兩個直覺,加埋一堆貼地例子,同你拆解個中奧祕。
✨ 直覺一:箍細權重,等模型「克制啲」
權重大=食重鹽‣ 神經網絡入面,每條邊都有個 weight。‣ Weight 愈大,代表模型好依賴嗰條路徑,好易「鹹到漏」。
L2 正則化 = 每餐限鹽‣ 在 Loss 加 λ‖W‖²,更新時自動扣少少 weight。‣ Weight 全體縮水,模型逼住平均使用多啲特徵。
λ(lambda)好似鹹淡水閘‣ λ 高到爆:所有 weight 壓到近 0 → 模型變超簡單,似線性回歸。‣ λ 適中:只削走最離譜嗰批 weight → 模型仍有表現力,但唔會背書。
貼地例子‣ 股票預測:模型猛咬住「昨收價」,忽視成交量 → 加正則化逼佢分心睇多幾指標。‣ 語音轉文字:錄音室聲軌好靚,去到街頭嘈吵就跪 → L2 減重「高質音」特徵,增加對雜音嘅容忍度。‣ 網店推薦:模型只睇「點擊量」推貨,冷門寶藏永遠見唔到 → 正則化拉低熱門特徵權重,增加多元推薦。
📉 直覺二:收窄 z 值,令激活函數近線性
激活函數嘅飽和區

