【深度学习_吴恩达】吴恩达深度学习课程第一课 & 第二课 — 神经网络与深度学习

[视频学习地址] | [【目录】【中文】【deplearning.ai】【吴恩达课后作业目录】]

P1 【第一周深度学习概论】1.1 欢迎

学习大纲
在这里插入图片描述

P2 1.2 什么是神经网络

在这里插入图片描述

在这里插入图片描述

P3 1.3 用神经网络进行监督学习

监督学习的例子
在这里插入图片描述
神经网络例子
在这里插入图片描述
结构化数据和非结构化数据
在这里插入图片描述

P4 1.4 为什么深度学习会兴起

数据越多,深度学习比传统算法性能越好
在这里插入图片描述
算法创新提高了计算速度,加快了迭代速度
在这里插入图片描述

P5 1.5 关于这门课

在这里插入图片描述

P7 【第二周 神经网络基础】2.1 二分网络分类

在这里插入图片描述
符号表示
在这里插入图片描述

P8 2.2 logistic回归

在这里插入图片描述

P9 2.3 logistic损失回归函数

在这里插入图片描述
l是单个样本的损失函数,cost是全部样本的损失函数
在这里插入图片描述

P10 2.4 梯度下降法

在这里插入图片描述
在这里插入图片描述

P11 2.5 导数

P12 2.6 更多导数的例子

P13 2.7 计算图

在这里插入图片描述

P14 2.8 计算图的导数计算

在这里插入图片描述
在这里插入图片描述

P15 2.9 logistic回归中的梯度下降法

P16 2.10 m个样本的梯度下降

在这里插入图片描述

P17 2.11 向量化

在这里插入图片描述

在这里插入图片描述

P18 2.12 向量化的更多例子

P19 2.13 向量化logistic回归

在这里插入图片描述

P20 2.14 向量化logistic回归的梯度输出

P21 2.15 Python中的广播

在这里插入图片描述
在这里插入图片描述

P22 2.16 关于python_numpy向量的说明

在这里插入图片描述

P23 2.17 Jupyter 笔记本的快速指南

P24 2.18 (选修)logistic损失函数的解释

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_43154149/article/details/120563909