Deep Learning Specialization课程笔记——神经网络编程基础

Vectorization

非向量化和向量化的区别:


在jupyter notebook上:

import time

a=np.random.rand(1000000)
b=np.random.rand(1000000)

tic=time.time()
c=np.dot(a,b)
toc=time.time()
print ("vectorized version:"+ str(1000*(toc-tic))+"ms")

c=0
tic=time.time()
for i in range(1000000):
    c+=a[i]*b[i]
toc=time.time()
print("for loop version:"+ str(1000*(toc-tic))+"ms")

得到结果:


说明矢量化速度比for loop快很多。

GPU和CPU都有并行化的指令,他们有时候会叫做SIMD指令,代表一个单独指令多维数据。矢量化利用了并行化去更快地计算。


More Vectorization Examples

经验之谈,在编写神经网络和逻辑回归时,都要尽可能避免使用显式的for-loop。

矩阵A和向量v的乘积例子:


向量v向向量u转化的例子:


其中v**2计算向量中每个元素的平方。

对逻辑回归代码的矢量化改写:



 Vectorizing Logistic Regression

可以实现用梯度下降的一次迭代来处理整个训练集,而不需要一个for loop。

向量化的改写公式:



Vectorizing Logistic Regression's Gradient Output

在进行梯度下降的计算时,db和dw的求解如下:


对代码的改写为:


右边的式子实现了不使用for循环完成一次梯度下降,但如果想让梯度下降迭代很多次,还是需要for循环。


Broadcasting

广播是另一种能让python代码运行更快的技术。以卡路里问题举例:



求每种食物的总卡路里:


然后计算百分比:


广播在这里的含义,是可以自动将(1,4)矩阵转变为(3,4),实现除法运算。

上上节中,加b也是运用了广播的原理。

更多广播运算:



A note on python/numpy vectors


具体的note见注释。

assert(a.shape==(5,1))断言语句。

这节的要点就是:为了简化代码,不要用秩为一的矩阵


Quick tour of Jupyter/iPython Notebooks

没有什么内容。


Explanation of logistic regression cost function

loss function公式的推导:


cost function的推导:



猜你喜欢

转载自blog.csdn.net/weixin_37805505/article/details/79645512
今日推荐