1.1.3 定義損失函數

1.1.3 定義損失函數

1.1.3定義損失函數

完成了網絡定義后,我們可以針對指定的輸入x獲得對應的預測值y,我們自然希望預測值y與真實值y_之間的差距越小越好,理想的情況就是在數據集上預測值y和真實值y_總是完全一樣。但是事實上這幾乎是無法做到的,我們需要定義預測值和真實值之間的差距,也就是理想和現實之間的差距。可以認為深度學習訓練的過程,就是不斷追求損失函數最小化的過程。以Keras為例,常見的損失函數有以下幾種:

mean_squared_error或mse

mean_absolute_error或mae

mean_absolute_percentage_error或mape

mean_squared_logarithmic_error或msle

squared_hinge

hinge

categorical_hinge

binary_crossentropy

logcosh

categorical_crossentropy

sparse_categorical_crossentrop

其中二分類問題經常使用的是binary_crossentropy,多分類問題經常使用的是categorical_crossentropy,回歸問題使用mse和mae。

上一章書籍頁下一章

智能系統與技術叢書·AI安全之對抗樣本入門

···
加入書架
上一章
首頁 其他 智能系統與技術叢書·AI安全之對抗樣本入門
上一章下一章

1.1.3 定義損失函數

%