参与深度学习超级计算机DGX系列产品研讨会的感受

  本次DGX workshop主要服务的对象为机器人算法以及深度学习算法开发工程师。本科阶段的毕业设计是在Jetson TX2上跑的,公司做深度学习涉及DGX和Isaac机器人平台,有幸参与此次英伟达和丽台科技联合组织的DGX workshop学习下。印象深刻的地方做一个总结。
  官方的说法是DGX Workshop dedilcated to Robotics for Jetson Xavier and Isaac。不过现场既没有半价开发板也没有尺子,更没有Xavier实物,纯粹的DGX和Jetson TX2的深度交流,不过干货也不少。
  两点钟开始进行签到,之后又NVIDIA高级算法经理李铭来讲述《NVIDIA Isaac及Xavier的介绍》,接下来由NV解决方案架构师何萍讲述《人工智能计算加速平台NVIDIA DGX》,之后吴强,NV合作伙伴经理来带领大家进行《DGX现场体验》。
  茶歇之后,NVIDIA开发者关系架构师王永祥介绍《DeepStream 2.0简介》,丽台科技的总经理王锋对《NVIDIA深度学习学院培训介绍》,最后是优必选科技的高级算法工程师罗茜给大家带来《深度学习在机器人领域的应用展望》。在互动交流中,可以现场体验DGX Station,带自己的模型来跑。跑了一下自己训练微调的CaffeNet和DetectNet数据模型,确实速度优化不少。
  start
  李博士开场,目前人机协作更加方便,机器视觉+机器人的模式让机器人变得更加智能。目前强化学习(reinforcement learning)由1979年再度回到人们的视野。在智能方面使用奖优罚劣的算法,由2步式到5步式,不过强化学习还是有一定的弊端,看起来前景美好实际受网络带宽实验环境等因素印象受到制约。
  Dr.Li
  ISAAC发展的问题也受限于传感器,使能单元和Actuators适用机器人应用开发。
  Xavier中间编译层做了优化,实时性的保证更好,低功耗同事编码解码能力上升,增加了创新的空间。在计算能力上,GPU平台能得到发展。
  新一代DGX有如下特点:  

  • volta架构
  • 16*16的32位计算
  • 张量计算Tensor Core
  • 内存加大一倍使用堆栈式
  • 更高的准确率由75%上升到85%

      DGX Station内置四块 Tesla V100,拥有1500W的功耗,支持水冷,超静音。不得不说DGX-1线排得很整齐,整合得无可挑剔。用asus的显然不专业,一般专业版不是超微就是泰安,SM和tyan没见过单路4卡的板子,估计是为了省钱,上个单路,感觉不专业。
      DGX Station
      采用超立方体,拓补结构,多GPU数据并行,两个通道:PCLE、通道。
      DGX-2采用8-8GPU连接、新连接技术NVSwitch,目前有16卡的版本。NVSwitch让连接速度提高一个级别。2倍就是现行加速,两个DGX+网络连线。DGX-2的NVSwitch保证传输无阻塞。
      DGX-Station
      容器镜像,可以一次运行多个框架,这是英伟达未来的眼光。NGC合并DGX开发者官网可以更好的学习。
      KUB监控管理。软件、软件栈。DeepStream SDK,TensorRT的开源插件变得更加丰富,目前支持CUDA9.2,TensorRT4.0,GSstreammer1.8.3。这是针对DeepStream 2.0的。
      DeepStream2.0
      最后优必选的小姐姐介绍优必选和清华大学的教授合作的踢足球机器人。气氛十分活跃。机器人重量十足,但非常灵活,能够完成跳跃、射门等简单动作。对周围环境的侦测用的是TX 2为平台的,算法都是自己研究的。
      这里写图片描述
      上次GTC我以为老黄就能上新核弹呢结果没有,DGX Station就是显卡高端,亮点不够多。N的技术更新的这么快,我看有点敛财的意思。应该早就研究出来了,只是慢慢放出来,一层一层敛财,反正几乎没有对手。DGX Station主要是cuda、cudnn等软件环境都配置好了,上来就能直接训练神经网络。当然又要强大的算法基础支撑。到场的有很多对智能汽车、机器人算法研究颇有造诣。
      DGX workshop
      所以算法以及数据基础,是推动和影响未来企业业务向前推进的重要参考标准。深度学习需要了解的算法有:决策树式、最小平方回归、逻辑回归、支持向量机、集成方法、主成分分析和独立成分分析。
       博主曾经加强过对机器学习和本专业知识的学习,但是缺少的是全方位立体化的宏观的统揽。学深度学习算法往往都是被动应付,对问题不作根本彻底的解决。LDA火了,跑个工具,了解几个技术博客;深度学习火了,玩个工具,找个技术论坛逛逛。
      这种短平快的学习方式的好处就是即插即用。短期内能够出成绩给领导交差。但是长远发展的角度上看,缺少对整个深度学习框架的掌握,难成气候。算法基础不牢固,后期想深入也无济于事。本科阶段博主是我们实验室第一个做Deep Learning的,导师都不太懂,全部需要自己摸索。深度学习对硬件要求苛刻,Boss又催发文章,可是实验室跑起来太耗时,自己又没人带,那段时间学习的十分痛苦没效率。一入DL深似海,是我的心路历程。
      目前是准备以最实用的的DL4NLP为切入点开始学习,以neural networkword embeddingGRU/LSTMphrase/sentence embeddingencoder-decodermulti-task learning这条主线入门。梳理了深度学习算法体系进行学习,之后对机器学习和自然语言处理进行展开。
      人工智能路漫漫,却让我们的生活充满了机遇与遐想。

猜你喜欢

转载自blog.csdn.net/prototype___/article/details/81087566
今日推荐