信息基础Homework2

Homework2

1、希腊字母发音
https://zh.wikipedia.org/w/index.php?title=希臘字母的英語發音&oldid=42974212

2、方向的概念
如何直观形象的理解方向导数与梯度以及它们之间的关系?
https://www.matongxue.com/madocs/222.html#/madoc

3、卷积的概念
最容易理解的对卷积(convolution)的解释(从信号与系统的卷积到深度学习的卷积)
卷积的重要的物理意义是:一个函数(如:单位响应)在另一个函数(如:输入信号)上的加权叠加
https://blog.csdn.net/bitcarmanlee/article/details/54729807

4、中心极限法则证明
一:参见《概率论与数理统计(第四版)简明本》–浙江大学盛骤等编
P118-P122,不过书上只介绍了三个常用的中心极限定理,但是没有证明过程。
二:数学证明过程
https://blog.csdn.net/Daisy__Ben/article/details/49822449
https://wenku.baidu.com/view/a79fc3270812a21614791711cc7931b764ce7b45.html?re=view
三:台湾CUSTCourses视频课程
https://www.youtube.com/watch?v=6SHqfp02bs0

5、朱军论文阅读
①个人介绍:
http://www.cs.tsinghua.edu.cn/publish/cs/4616/2014/20141204083315548241718/20141204083315548241718_.html
②论文搜索
https://scholar.google.com.hk/scholar?hl=zh-CN&as_sdt=0%2C5&q=朱军+清华计算机&btnG=
③<<动态不确定条件下的人工智能>>
  本文介绍了动态非确定条件下的人工智能最新进展,包括内部不确定性的贝叶斯人工智能、外部不确定性的非完全信息博弈、动态多回合决策以及动态开放环境决策深度强化学习等内容,并给出了今后的研究内容.
1  内部不确定性:贝叶斯人工智能
1.1 贝叶斯建模
  (1)贝叶斯深度学习,有机融合贝叶斯与深度特征学习,构建灵活的建模框架;
  (2)深度概率图模型,结合图论发展新型的具有特征学习能力的概率图模型;
  (3)贝叶斯逻辑,将描述关系型数据的逻辑(如一阶逻辑)与不确定性推理结合;
  (4)非参数化贝叶斯,自动确定模型的复杂度
1.2 贝叶斯推断 可对模型中未知变量后验分布进行计算.主流的近似推断算法包括变分贝叶斯方法和蒙特卡洛方法.
1.3 概率编程
(1)适用于深度贝叶斯学习、贝叶斯逻辑等模型的概率编程语言;
(2)通用概率编程语言的高效推断算法;
(3)面向 GPU 等新型硬件的概率编程语言.
2  外部不确定性:非完全信息博弈
2.1 完全信息博弈:将博弈场景建模成静态博弈或博弈树,并对其搜索求解.
2.2 非完全信息博弈:求解该博弈树的纳什均衡
3  动态多回合决策:深度强化学习

6、通用逼近原理
一:神经网络可以计算任何函数的视觉证据(侯大佬推荐)
http://neuralnetworksanddeeplearning.com/chap4.html?tdsourcetag=s_pcqq_aiomsg
二:Microsoft.academic
https://academic.microsoft.com/#/search?iq=%40George Cybenko 1989%40&q=George Cybenko 1989&filters=&from=0&sort=0&tdsourcetag=s_pcqq_aiomsg
三:《Approximation Theory and methods》
https://books.google.com.tw/books?id=ODZ1OYR3w4cC&printsec=frontcover&hl=zh-TW#v=onepage&q&f=false
四: 提要
①人工神经网络是由单一的、简单的非线性激活或响应函数的组合和叠加而成的。
②类比于数字信号处理器,由单位延迟和常数乘子构成的数字滤波器可以很好地逼近任意连续传递函数。
③单层网络中的单调sigmoid形函数在连续函数空间中是完备的.在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_37481260/article/details/83926541