iOS人工智能交流模型1

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/gwh111/article/details/90769041

大纲
1. 神经网络学习
2. 常用模型分析
3. iOS中的CoreML等闭源库
4. 通过bench_ios中的CC_ANN使用激活函数ReLU和Sigmoid实现DNN网络。
5. caffe、tensorflow等对比

https://baijiahao.baidu.com/s?id=1574518061092294
人为什么能够思考?科学家发现,原因在于人体的神经网络。



外部刺激通过神经末梢,转化为电信号,转导到神经细胞(又叫神经元)。无数神经元构成神经中枢。神经中枢综合各种信号,做出判断。人体根据神经中枢的指令,对外部刺激做出反应。

http://www.21ic.com/app/computer/201707/730987.htm
特例的排除

https://baike.baidu.com/item/%E5%9B%BE%E7%81%B5%E6%B5%8B%E8%AF%95/1701255?fr=aladdin
记忆能力
问: 你会下国际象棋吗?
答:是的。
问:你会下国际象棋吗?
答:是的,我不是已经说过了吗?
问:请再次回答,你会下国际象棋吗?
答:你烦不烦,干嘛老提同样的问题。

https://m.huxiu.com/article/247451.html?from=singlemessage
人机对话问题

http://www.xinhuanet.com/science/2017-03/07/c_136108535.htm
举个例子,“一加一等于几”以及“小明有一个苹果和一个梨,问小明有几个水果”,同样本质是“1+1=?”的两道题,在题型概念上是一样的,表达方式却截然不同。计算机需要知道如何把以上两道问题都抽象成两个对象相加,这就涉及到所谓的自然语言理解。


Hosseni 2014训练一个分类器判断一个动词属于加/减

https://www.leiphone.com/news/201605/sQdUMNhFoWhoATv8.html
寻找主谓宾

https://www.2cto.com/kf/201608/534598.html
HMM马尔科夫假设:一个词的出现仅仅依赖于它前面出现的有限的一个或者几个词。如果一个词的出现仅依赖于它前面出现的一个词,那么我们就称之为bigram。即P(T) = P(W1W2W3…Wn) = P(W1)P(W2|W1)P(W3|W1W2)…P(Wn|W1W2…Wn-1) ≈ P(W1)P(W2|W1)P(W3|W2)…P(Wn|Wn-1)

麻省理工公开课:人工智能
http://open.163.com/movie/2017/9/Q/S/MCTMNN3UI_MCTMNR8QS.html









树叶来自什么树 查书



你提着一桶水在街上跑 会打湿你的鞋 无法在网络搜到没有人告诉你但你能想象

Goal tree

And/or tree
Goal tree how/why 向上 向下 60年代西蒙
heuristic transformation
Composation depth

身边的同学能解出一个数学题 你解不出 你觉得他很智慧 当你做了这个题100遍 看到它就会解时 你就觉得他没有那么智慧 他解题方法和我一样 我也会

Complexity of environment not complexity of program 蚂蚁回家绕来绕去走到家门口
行为复杂度是以上的较大值

Forward chaining based rules “expert” system
Backward
Deduction system /prove get new
不能预测特例
What is this? 正向
Is this a xxx? 反向

Search is about choice
Depth first search  遍历每一条到底直到找到/  breadth first search  / hill climbing(sort,keep W best)  / beam search
除非节点没有到过(避免重复)除非没有扩展过/ doesn’t work when we add admissible heuristic
Backtracking idea回溯
Sort is expensive
Admissible (H<D) Consistence(|H-G|<D)

在某些部分很像 那么他们在其他方面可能也很像 学习先例 case 的意义

Careful about confusion of correlation with cause
关联性 因果性 猫和狗看到人和节食饮料 不会想到是为了减肥
They see the correlation, but they don’t understand the cause.

Identification tree; decision tree

找界限值 阈值

Neuron
Dendritic tree

第一次计算赋值w1,w2,反向修正w2,到w1

计算离结果最近的w,一直往回走,局部计算、反向传播法back propgation; liner

Overfitting 拟合过度




回到最前,是新的一代,一部分被淘汰

有丝分裂 mitosis 染色体 chromosomes

有一些突变因子导致概率变化,再使用交叉互换

P1被选中的概率=P     P2被选中的概率等于剩下的(1-P)乘以P2被选中的概率
会被困在局部最大值

多样性

第一个考虑适应性,没有选择,之后先考虑多样性,选哪个和已经选的差异最大,这就得到最高多样性排序
得到最优解步骤:先发散后收缩到最优

Dogs 和 cats s的发音不同 phonological rules
plural

One-short learning
Initial model

论文出名五要素
symbol
slogan
salient 突出的思想是一次性学习可以通过相近差错的使用实现
surprise
Story

要理解意思,有一个变化表,每个阶段变化了什么
AI机制、提高写作,让读者容易读懂,减轻理解负担
1、不要使用代词
2、不要使用“前者”“后者”
3、don’t call a shovel a spade 不要用近义词切来切去这样

Genel problem solve
SOAR / state operate and result

本能反应、学习反应、思考反应、反思性思考、自我反思、自我意识思考

iRobot机器人吸尘器
https://baike.baidu.com/item/iRobot%E6%9C%BA%E5%99%A8%E4%BA%BA%E5%90%B8%E5%B0%98%E5%99%A8/10537215?fr=aladdin

如何变得更聪明?

快速说话的人会阻碍你的语言处理器,来不及思考,让你买下车、买下他的东西

概率推理I

 

猜你喜欢

转载自blog.csdn.net/gwh111/article/details/90769041
今日推荐