一些杂碎知识(python中的map、lambda、reduce、zip)以及神经网络的前向传播和反向传播手工推导

     一直没有系统的学习过代码,数学系毕业,学校期间接触C,考了计算机等级考试二级,后面出来工作,先用vb(又是暴露年龄的编程语言啊),后面java,到现在基本稳定在python,一直都觉得自己是一个不求甚解的人,只要能出正确结果,不考虑代码的陈旧性,感觉自己的代码还停留在最基本的语句的应用,其实每种语言再不断的优化迭代,更新了很多很方便的自带函数,今天就遇到了python中的map、lambda、reduce、zip,这里就不具体讲这几个表达式也好函数也好的详细信息,若想看详细信息可以参照这篇https://www.cnblogs.com/strongYaYa/p/5870075.html,我在此只是贴段代码,共大家验证对这几个函数的理解度。

input_vec=[1, 2]
weights = [0.1, 0.3]
bias = 0.5
reduce(lambda a, b: a + b,map(lambda (x, w): x * w,zip(input_vec, weights)), 0.0) + bias
结果是:((0 + 1*0.1)+ 2*0.3)+ 0.5 = 1.2

当数据量很大的时候,内置函数的性能如何?

神经网络公式的推导,发现得过几天就推导下,要不然就又有点模糊,所以今天早上又推导了下,在此做个记录






猜你喜欢

转载自blog.csdn.net/yibo492387/article/details/80771142