动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述在这里插入图片描述

start = time.time()
c = tf.Variable(tf.zeros(1000,))
for i in range(1000):
	c[i].assign(a[i] + b[i])
time() - start
# 输出 0.31618547439575195

向量相加的另一种方法是,将这两个向量直接做矢量加法。

start = time()
c.assign(a + b)
time() - start
# 输出 0.0

在这里插入图片描述
小结:

和大多数深度学习模型一样,对于线性回归这样一种单层神经网络,它的基本要素包括模型、训练数据、损失函数和优化算法。
既可以用神经网络图表示线性回归,又可以用矢量计算表示该模型。 应该尽可能采用矢量计算,以提升计算效率。

参考自动手学深度学习和: https://trickygo.github.io/Dive-into-DL-TensorFlow2.0/#/chapter03_DL-basics/3.1_linear-regression

发布了87 篇原创文章 · 获赞 60 · 访问量 5万+

猜你喜欢

转载自blog.csdn.net/suiyueruge1314/article/details/103995673