关于毕设分类专栏文章的说明

这个专栏记录我做毕设的过程中遇到的问题,以及发现的比较好的文档等。
我的毕设是小波神经网络在图像去噪中的应用,一方面是要学会关于神经网络的相关知识,另外,还需要学会使用tensorflow(我是用的这个开源工具)等工具。最后,还需要掌握一些关于图像去噪方面的知识,结合起来就是我的毕设。

一些比较好的网址:
tensorflow的一个教程
tensorflow2.0的一个教程
Keras的一个教程
H5py的一个教程
matplotlib.pyplot的一个教程
tensorflow的API 1.0与2.0版本的对应关系,如果不慎入了这个坑。。
另一个Keras教程,个人觉得这个更实用,前一个适合入门。
网址差不多就是这么多,当然还有数不尽的博客。在此,谢谢CSDN等平台。

关于做毕设的心态,学习的规律,自己的一点看法:
我觉得学习是一个不断的调整反馈的过程,一开始,我只刚入门,就装tensorflow配环境,就花了两三天,坑还是有一些的。。
着急不行,然后又看了一个MNIST数据集的案例,算是简单入门tensorflow吧。但是发现自己并不会自己写代码出来。。
着急不行,然后又去girhub上搜一些代码来看,看了几个,改了改,期间遇到了那个1.0与2.0版本API不对应的大坑。。改了改之后,因为版本升级太多,就决定自己来写。别人的代码仅做参考。
期间,看了知乎的一个大佬对于BP神经网络的讲解,启发很大,感兴趣的可以搜一搜,链接找不到了。
之后,就开始自己搭网络,好在tf2.0把这个简化了,几行代码就搞定了。然后是自定义loss函数和激活函数遇到了一些问题,这里不得不说Stack Overflow里面的问题确实全,这两个问题都是在那里面解决的。
最麻烦的是,输入和输出的解决,废了好久的时间,我用的是VOC数据集,里面的图片大小不一样,我还需要处理,这个花了好久。。总之,不能着急,着急的话会很烦,事情也做不好。学习的过程来回反复是很正常的。
大致的问题和过程就是这么多,我得出的结论是:学习是一个不断反复的过程,期间会无数次的“回头看”,反正呢,就是不能急,一急就会烦躁,无益于最终问题的处理,相反,需要个人“宏观上”把握自己的状态,告诉自己学新知识的时候,反复查询,反复深入,一次比一次深入是一个正常的过程,不必着急,也不必妄自菲薄。

原创文章 77 获赞 4 访问量 9052

猜你喜欢

转载自blog.csdn.net/weixin_40007143/article/details/104674722