Acitivate function

Loss Function

regression

  1. MSE * MSE = Mean(SSE) in 統計 * 若用於logistic regresseion時
  2. MAE * 微分會有問題: $\ f(x) = |x|$ 則 $f'(x) = \frac{x}{|x|} $
    1. 在x=0處不連續
    2. 微分/梯度始終相同(方向可能不同)

classification

  1. multi-class vs multi-label * multi-class: 很多class但最終預測只有一個class(1,0,0), eg.動物分類器, MNIST數字分類器 * mulyi-label: 很多class,最終預測多個class(1,1,0), eg. 電影分類(可能同時是科幻, 劇情, 動作)

  2. classification loss * only right or wrong * 0.1, 0.9 vs 0.4, 0.6 的loss都是一樣的, 但很明顯後者需要改變 * cant backprob?

  3. 0/1 loss * $loss_i = 0$ only when $y_{i,true} = y_{i,pred}$, 太嚴格 * not convex, 難以優化

  4. perceptron loss * 0/1 loss 的改進版 * $loss_i = 0$ when * 有另一版本是hinge loss的變種? $|y_{i,true}-y_{i,pred}|>t,\ t$為thread value

  5. cross entropy * information gain

  6. hinge loss * 公式: $loss_i = max(0, 1-y_{true,i}y_{pred,i}),其中\y_{true,i}=-1\ or\ 1$ * 並不鼓勵分類器太過自信:让某个正确分类的样本距离分割线超过1并不会有任何奖励,从而使分类器可以更专注于整体的误差。$if\ y_{true,i}, y_{pred,i} = 1, 100\=>\ max(0, 1-1100)\ is\ still\ 0$ * 用於二分類, SVM, 間隔最大化問題