deeplearning meeting

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/pickers/article/details/79618555
今天有幸参加了一场来自某歌公司(我特么做梦都想进的顶级公司)人工智能小组的一个人来给我们科普关于人工智能的相关技术,这个不用想的,肯定是力推他们自己家的TensorFlow框架的,说这个框架在内部用的也有很多,然后也有近百人在维护这个框架,,,他们谈论了关于人工智能的一些事情,比如说 AlphaGo狗和 AlphaGo zero,这个zero要比第一版强上太多的,因为它使用了DeepLearning技术,而DeepLearning其实说代表框架就是Google一直弄得TensorFlow,一些其他公司也推出了类似的platform,比如说amazon和facebook,百度等等都在弄这个东西。都想有自己的一个platform,,,也探讨了现在关于DeepLearning的一些使用场景,现在Google内部已经大都数项目都使用了人工智能,但是人工智能并做不了所有的事情,基本上都是%90的嵌入式或者服务器相关的东西+%10的AI,,,一般比如说amazon的echo,其实说ai部分占得比重比较多,但也就仅限于设备采集语音并上传到服务器,服务器端采用了ai技术对其做处理,好像是一个设么pipeline的流程,,,而且还说到了现在的ai其实还很不成熟,离真正的有自己的思想还有很久的路要走,比如说现在的ai基本上就是给你很多数据训练集,然后你根据数据来学习的一个过程,基本上不会创新,只不过是对一个学习的总结过程,比如说google有个项目,就是说机器人可以自己打字,其实说这个基本上就是给这个机器人学习很多paper,然后他能猜测到接下来的数据,然后你外界看的话感觉就好像很流畅一样,但其实也是有错误概率的,,,还有个啥那个可以让电脑写代码的东西,好像也有在做的,不过目前并不能真的完全自己创造一个代码,可能说只是进行一些检测,比如说溢出和被除数不能为0等等,这些只是人为控制的,机器还不能够自己创造,,,然后还有说道之前特斯拉汽车发生的一次车祸,好像说是一款自动驾驶的特斯拉汽车全速的撞上了一个卡车,这个官方是有解释的,反光,是的,经过技术人员分析事故时的数据发现,当时太阳照着卡车的旁边造成强烈反射光,然后特斯拉车以为他旁边什么也没有,产生了误判,然后就全速撞了过去,,,有这么个5%的说法,这个好像是一个很牛的Stanford的一个教授得到的一个结论,就是说让人来识别一张图片都会有5%的错误率,所以说基本上如果说这个modul错误率控制在5%之下,基本就能商用了,现在ai市场上炒的这么火,所实话还是得感谢google,google将它研究的一些框架和一些app全部开源,基本你都能在官网上下载到,据说理念就是,人工智能是每个人都需要关注的,每个人都应该有机会去了解和学习它,我感觉这个很好的,但是说实话他也不怕,你有了源码又怎么样,有没有硬件和数据去train这个模型,那基本还是没什么效果的,其实说ai这个东西可能说本身就是个玄学,这个东西可能说你无意间调整个参数权重比,哎,效果很好,那就很赚了,不同的场景可能需要不同的模型,你需要一个一个去试,去调整参数,去给数据训练他,看看最后效果,不行再换,这种感觉就是靠碰和经验,还有就是设备,就比如说他之前搞这个模型的时候,就是测试一个模型,用了100个cpu集群训练了一天,我的哥,这要不是在google,小公司哪有这条件,当然还有gpu,并且google正在研制的TPU,现在硬件确实越来越好了,然后代码越来越开源了,训练数据越来越容易得到了,说句不好听的,真的有可能某个小孩学了点python,然后搞个模型训练下,调整各权重比,然后,哎,突然发现识别精度出奇的高,这也是有可能的哈。
哦对,还说了去年很火的一个那个啥,对抗式训练集,好像就是说有两个模型,然后可以互相训练然后产生数据,然后通过产生的数据再继续训练,这样的话就可以解决没有数据的问题了,额,具体我也没听懂,反正大概就是这么个东西。
好像就这些,其他的也忘了,一些专业术语啥的,我当时也没带笔记本,差点就特么的听睡着了。

猜你喜欢

转载自blog.csdn.net/pickers/article/details/79618555