吴恩达 机器学习 第四周 笔记

Netural Network 介绍

如图,在非线性分类问题中,如果特征X少的话,如X1,X2两个,那么进行多项式的复杂度依然可在接受范围内,但是一旦特征多了比如X1-X100,如果要将这100个特征化为二项式 则需要大概5000个。多特征情况下,不适合logstic regression。

这是一个简单的Netural Network.(feedforward propagation

图中的Sigmoid(logistic) activation function 就等于

在神经网络领域,θ有时候会被称为weights权重

在这里第一列称为input layer可以a(1)上标来表示该数组。第二列称为hidden layer 用a(2)上标表示,第三列output a(3)上标

 j表示在哪个layer,i表示在那个layer的第几个,一般除output layer以外的layer都要在最上面加一个bias unit 也是a0下标

这个bias unit 恒等于1

这个表示一个θ数组,其数组的行和列数由上图底下公式算出,上图的θ为3X4数组,因为上图第二列有3个unit,而第一列需要加上bias unit来计算,所以就有3X4

向量化

这里的z用来代表g()里面那一大串为以后向量化做准备,可以用θ1 * X作为向量化

Simple Example

Multiclass-classification

one-vs-all

这里运用one-vs-all思想。y(i)上标是result class 其值是上述四种中的一种

猜你喜欢

转载自blog.csdn.net/YzarrK/article/details/88798656