Notebook

Softmax回归 & 交叉熵

Softmax Summary

公式

\(\hat y =\frac{exp(O_i)}{\sum_k exp(O_k)}\tag{softmax公式}\)

softmax和交叉熵损失

LossFunction

从回归到多类分类 均方损失

\(l(y,y') = \frac{1}{2} (y-y')^2\)

Huber’s Robust Loss

优化的时候比较平滑 大的时候用绝对值 \(l(y,y')= \begin{cases} |y-y'|-\frac 1 2\,\, ,if >1\\ \frac 1 2 (y-y')^2\,\,,otherwise \end{cases}\)