各位如果看到博客内有广告,可以动手点一点,谢谢

MENU

Gradient Descent on m Examples

March 29, 2019 • Read: 297 • Deep Learning

接下来我们需要将对于单个用例的损失函数扩展到整个训练集的代价函数:

$$ J(\omega,b)=\frac{1}{m}\sum_{i=1}^{m}L(a^{(i)},y^{(i)}) $$

完整的 Logistic 回归中某次训练的流程如下,这里仅假设特征向量的维度为 2:

但这种计算中有两个缺点:你需要编写两个 for 循环。第一个 for 循环遍历 m 个样本,而第二个 for 循环遍历所有特征。如果有大量特征,在代码中显式使用 for 循环会使算法很低效。向量化可以用于解决显式使用 for 循环的问题。

Archives Tip
QR Code for this page
Tipping QR Code