吴恩达深度学习(笔记+作业)· 符号

作业传送门:【目录】【中文】【deplearning.ai】【吴恩达课后作业目录】

m:数据集的规模(m个训练样本)(m_{train}m_{test}

n(n_{x}):输入的特征向量的维度

(x,y):一个单独的样本,x是n_{x}维的特征向量,y是0/1的输出

x^{(1)}y^{(1)}):表示样本一的输入和输出(x^{(m)}y^{(m)}):表示第m个样本的输入和输出

x^{(1)} = \begin{bmatrix} x_{1}^{(1)}\\ x_{2}^{(1)}\\ ... \\ x_{j}^{(1)} \end{bmatrix}:表示第1个样本的输入,里面有j个特征  x_{j}^{(m)}表示 第m个样本的第j个特征量

X = \begin{bmatrix} x_{1}^{(1)} x_{1}^{(2)} ... x_{1}^{(m)}\\ x_{2}^{(1)} x_{2}^{(2)} ...x_{2}^{(m)} \\ ... ... ... \\ x_{j}^{(1)} x_{j}^{(2)} ... x_{j}^{(m)} \end{bmatrix}:表示输入矩阵X(矩阵维度:n_{x}×m)(所有的样本输入)(但是这个是最约束的形式)

 Y = \begin{bmatrix} y^{(1)} y^{(2)} ... y^{(m)}\end{bmatrix}:表示输出矩阵(矩阵维度:1×m)(所有样本输出)

w= \begin{bmatrix} w_{1}\\w_{2} \\ ...\\ w_{n_{x}} \end{bmatrix}:权值,维度(n_{x} × 1)        w^T = \begin{bmatrix} w_{1}& w_{2} & ...& w_{n_{x}} \end{bmatrix} ,维度(1×n_{x} ) 

b = \begin{bmatrix} b_{1}& b_{2} & ... & b_{m } \end{bmatrix}:偏置,b表示实数(这里需要辨清)

 \widehat{y}:表示预测输出的概率,在激活函数sigmoid的作用下(表示为a)输出值为0-1之间

Z = \begin{bmatrix} Z^{(1)} & Z^{(2)} & ... & Z^{(m)} \end{bmatrix} :Z = w^{T}X + \begin{bmatrix} b & b & ... & b \end{bmatrix}_{(1\times m)} = \begin{bmatrix} w^{T}x^{(1)}+b & w^{T}x^{(2)}+b & ... & w^{T}x^{(m)}+b \end{bmatrix} 

 θ:有时候会用θ表示w、b但是实际上本质还是一样的,公式的表示方法不一样而已(这个课程里面不会使用这个符号的表示)

 z^{[1]}w^{[1]}a^{[1]}……:右上角的中括号表示第几层神经网络

a^{[l]}_{i}:表示第l层神经元的第 i个节点激活的输出

w^{[1]} = \begin{bmatrix} w^{[1]T}_{1}\\ w^{[1]T}_{2}\\ w^{[1]T}_{3}\\ w^{[1]T}_{4} \end{bmatrix}(4×3):表示第一层神经元,w^{[1]T}_{1}即等价于形式w^T = \begin{bmatrix} w_{1}& w_{2} & ...& w_{n_{x}} \end{bmatrix}

a^{[2](m)}:表示第m个样本的第二层神经元的激活向量

L:表示深层神经网络的层数(隐层层数,通常不将输入层计入)

n^{[l]} = 数字:表示第l隐层的节点单元个数

X^{\left \{ t \right \}}:表示第一个mini-batch,维度是(n_{x},mini-batch size),对应有Y^{\left \{ t \right \}}

猜你喜欢

转载自blog.csdn.net/weixin_44917390/article/details/119676571