top of page

03 - 淺層神經網絡係乜東東?


起步第一堂:踩水先,先敢游泳


學深度學習,好似學游水——唔係一落水就游蝶,而係先學踩水保命。淺層神經網絡就係呢個「踩水」階段:只有一層隱藏層,結構簡單得嚟夠你感受整個 AI 流程。缺咗呢一步,你直接跳去十幾層嘅卷積網絡,十居其九會溺水。


別睇佢「淺」,佢可以處理大量日常 mini-task:

  • 手機相簿自動分「人像 / 風景」

  • 智能門鎖認「住戶 / 陌生人」

  • POS 機即場判斷「信用卡交易正常 / 可疑」

  • 智能花灑測水壓決定「需唔需要增壓」


    淺層網絡比傳統邏輯迴歸多一層「思考」,足以捕捉呢啲微妙差異。


🧠 從邏輯迴歸升一級:加一層就升呢


邏輯迴歸只有輸入→輸出,一條通道,好似單鏡頭拍照。一旦場景複雜——例如同一張合照入面有逆光、有背光——單鏡頭就會過曝或欠曝。淺層網絡多咗隱藏層,相當於手機開埋「智能 HDR」:

  1. 先將像素拆解成對比度、邊緣、顏色飽和度等子特徵(隱藏層)。

  2. 再根據呢堆子特徵作最後判斷(輸出層)。


日常例子:

  • 咖啡店想分「淺焙/中焙/深焙」,顏色一項未必夠,要連油光、裂痕都計埋。

  • HR 篩履歷,單看 GPA 係唔夠嘅,加一層先綜合工作年資、社團活動、得獎紀錄,再決定「約面試 / 再觀察」。


🧱 神經網絡三件套:Input、Hidden、Output


  1. 輸入層(Input Layer)扮演資料入口:手機鏡頭像素、智能手環心跳、地鐵閘口刷卡金額……全部原汁原味送入網絡。

  2. 隱藏層(Hidden Layer)好似廚房總廚,將材料切粒再炒。佢會:

    • 乘權重 → 評估每個特徵重要度

    • 加偏差 → 微調整體味道

    • 過激活函數 → 加香料,令菜式唔再死板

  3. 輸出層(Output Layer)侍應最後端菜畀客:「有冇貓?」「要唔要增壓?」「交易係咪詐騙?」

注意:行內講「兩層網絡」指嘅係 1 隱藏 + 1 輸出,輸入層默認唔計。


🔁 前向傳播:數據走完整條生產線


想像你早上買杯手沖咖啡:

  1. 咖啡豆倒落磨豆機(輸入層)

  2. 咖啡師按焙度調粗幼、水溫(隱藏層權重 + 激活)

  3. 咖啡流入壺度量杯(輸出層得分)

前向傳播就係呢條 Flow。若然咖啡店一次沖 50 杯,就會一次過秤 50 份豆、50 隻杯——呢個批量處理就叫 向量化


⚙️ 激活函數:令網絡可以「打彎」


線性組合只會畫直線,解唔到「貓」呢種曲線邊界。激活函數就係轉向把手。

  • ReLU:負值全部清零,正值原樣輸出——似夜店保安,未達標直接請你返屋企。

  • Sigmoid:0-1 機率,好似天氣 App 講「今日 70% 會落雨」。

  • Tanh:-1 至 1,中點喺 0,適合需要正負對稱嘅場合,如股票「升 / 跌」訊號。

  • Leaky ReLU:負值留少少縫隙,確保保安唔會趕走所有人。

大多數淺層網絡:隱藏層用 ReLU,輸出層按任務揀 Sigmoid 或 Softmax。


📉 反向傳播:老師批改功課兼示範


網絡做完預測,好似學生交作文。老師先算總分(Loss),再喺每段旁邊批註(梯度),最後學生根據批註重寫(更新權重)。

  • 先從輸出層計「錯幾多」

  • 鏈式法則一路倒推返隱藏層

  • 再用梯度下降按學習率微調

打比方:你用導航去新餐廳,走錯路(Loss 高),GPS 會話你回頭 100 米再轉左(梯度方向),但唔會叫你一次兜三公里(學習率太大)。


🔄 梯度下降 & 學習率:揸波牛上斜


斜路踩波牛,波段太高一踩就「哐」衝過頭;波段太低又慢到瞓着。現代優化器例如 Adam 會根據坡度自動轉波,同時帶減震,防止左右搖。


🎲 隨機初始化:班上要有唔同人格


如果所有神經元都以 0 開局,就等於全班同學開學第一日全部抄同一份標準答案——老師永遠分唔到誰是誰。加入隨機細數值,好似派唔同主題嘅 Project,大家走唔同方向,班房先有火花,網絡亦能探索更多方案。


⚡ 向量化:洗衣機一桶過,唔係手洗


在 Python 用 for 逐筆數據運算,好似手洗一大籮衫。用 NumPy/ PyTorch 將 1,000 筆組成矩陣,一行矩陣乘法算晒——洗衣機一次過轆。配合 GPU 平行處理,速度可以快百倍以上。


🧩 手把手起第一個淺層網絡


  1. 設計結構:例子—輸入 30 個特徵、隱藏層 16 個神經元、Sigmoid 輸出 1 個機率。

  2. 隨機初始化 W1, b1, W2, b2。

  3. 前向傳播:Z1 = W1·X + b1 → A1 = ReLU(Z1);Z2 = W2·A1 + b2 → ŷ = Sigmoid(Z2)。

  4. 計 Loss:交叉熵。

  5. 反向傳播:計 dW2, db2, dW1, db1。

  6. 更新參數:W := W - α·dW。

  7. Loop:迭代到驗證集準確率企穩。

  8. 向量化:全程用矩陣運算,唔好寫 for。


🎯 真實場景可以玩咩?

行業

淺層網絡應用

為何唔用深網絡?

零售

收銀機即時分「會員 / 非會員」送唔送積分

特徵只有購買金額、時間、卡號,層數太多會過擬合

物流

預測包裹「當日送達 / 延遲」

輸入少:路線距離、天氣、司機經驗

智慧農業

感測器判斷「需唔需要澆水」

溫度、濕度、土壤 PH 三五個數就夠

醫療

血壓計 app 分「正常 / 需留意」

只有收縮壓、舒張壓、心率三項


✅ 小結:踩穩水面,先敢潛水


而家你知道:

  • 淺層神經網絡=輸入層 + 隱藏層 + 輸出層

  • 激活函數令模型懂得轉彎

  • 反向傳播 + 梯度下降 = 自我修正機制

  • 向量化 + 隨機初始化 = 速度快、效果好


踩穩呢塊「淺水板」,下次就可以挑戰 CNN、Transformer 呢啲深水區。

翱翔醫療 (2).png

尖沙咀H Zentre店

尖沙咀中間道15號

​H Zentre 8樓 813室

電話:28133700

​Whatsapp:+852 95096276

中環印刷行店

中環都爹利街6號

​印刷行 3樓 305室

電話:28716733 / 28716788

Whatsapp:+852 62084539

坑口海悅豪園店

將軍澳坑口海悅豪園
底層上層 UG18號鋪

​電話:98852916

Whatsapp:+852 98852916

旺角T.O.P.店

旺角彌敦道700號

20樓 2001室

​(T.O.P.商場3樓升降機上)

電話:28710277

Whatsapp:+852 98893911

bottom of page