0%

代价函数

总结

代价函数 选择
binary cross entropy 典型选择:二元分类
cross entropy 典型选择:多元分类
mse 典型选择:线性回归

Softmax Loss

Softmax Loss 是由 softmax 和 cross entropy loss 组合而成,在 pytorch,caffe,tensorflow 等开源框架的实现中,直接将二者合并在一层。如在 pytorch 中不需要再输出层加上 softmax 层用于分类,直接使用 cross entropy loss 即可。

各类代价函数

方差、协方差、标准差、均方差、均方根值、均方误差、均方根误差 L1正则和L2正则的比较分析详解

各类距离公式

python 各类距离公式实现

补充

名称 英文 公式 别称
残差平方和 SSE Sum of Squares for Error SSE = \(\sum^m_{i=1}(y_i - \hat{y}_i)^2\) 剩余平方和 RSS
回归平方和 SSR Sum of Squares for Regression SSR = \(\sum^m_{i=1}(\hat{y}_i - \bar{y})^2\) 解释平方和 ESS
总离差平方和 SST Sum of Squares for Total SST = \(\sum^m_{i=1}(y_i - \bar{y})^2\) 总离差平方和 TSS

三者之间的关系是 SST = SSR + SSE \(R^2 = \frac{SSR}{SST} = 1 - \frac{SSE}{SST}\)