前面我们讲到,logistic回归函数为:
使用的损失函数为:
假设输入的样本只有两个特征值。则对于我们要求最小值的损失函数来说,输入的参数为:。表示成计算图为:
如果数据沿着前向传播的路径,则可以得到损失函数对应于输入的值。如果要使用梯度下降法找到函数的最小值,则需要将数据反向传播。通过反向传播分别得到参数的导数。就可以使用梯度下降法的迭代公式:
来找到最值点啦!
前面我们讲到,logistic回归函数为:
使用的损失函数为:
假设输入的样本只有两个特征值。则对于我们要求最小值的损失函数来说,输入的参数为:。表示成计算图为:
如果数据沿着前向传播的路径,则可以得到损失函数对应于输入的值。如果要使用梯度下降法找到函数的最小值,则需要将数据反向传播。通过反向传播分别得到参数的导数。就可以使用梯度下降法的迭代公式:
来找到最值点啦!