“kubernetes容器+GPU并行编程”研讨会

“kubernetes容器+GPU并行编程”研讨会

前言

随着人工智能AI、大数据Big Data、云计算Cloud Computing等计算机科学技术的发展和应用的普及,深度学习DL和人工智能AI成为当下最炙手可热的技术趋势,将成为技术行业基础设施的核心组成部分。GPU的价值不止体现在深度学习,在高性能计算、物联网、人工智能、生物信息、分子模拟、计算化学、材料力学、系统仿真、流体力学、机械设计、生物制药、航空动力、地质勘探、气候模拟等领域,算法越来越复杂,需要处理的海量数据越来越巨大,高性能计算能力就显得尤为重要。如今,乎所有的深度学习(机器学习)研究者都在使用GPU进行相关的研究,NVIDIA针对深度学习的计算,有一套完整的解决方案,cuDNN已经成为主流深度学习框架调用的深度学习GPU函数库,包含完整的矩阵乘法和卷积计算的实现。
Docker 是一个新兴开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何 Linux 机器上。Docker容器轻量化的机制和运行模式可广泛的应用到高性能,深度学习等计算密集型应用中,随着云计算的普及以及对高性能、深度学习等相关技术的快速发展,使得云计算人才供不应求,所以一些大型企业对Docker专业技术人才需求较大。同时,kubernetes作为Docker容器的管理平台,已经成为容器编排领域的事实标准,通过kubernetes技术可实现容器的有效管理,资源的合理分配,任务的高效调度等,为上层应用提供强有力的支撑。国内外越来越多的企业都已经在生产环境中基于Kubernetes构建自己的私有云,并且收效颇丰。
GPU高性能计算和容器编排已成为AI重要支撑技术,因此我单位举办“kubernetes容器+GPU并行编程实践研讨会”,本次培训班由权威师资主讲。

目的

通过学习docker+kubernetes实战课程可以有效的了解和应用Docker和Kubernetes技术,学习如何创建和管理Docker容器,然后在容器内部署示例应用程序。为高性能、深度学习等技术的研究和应用搭建起一套高效、稳定、安全的底层环境。
现有硬件资源最大化利用,提供多种并行优化方案组合策略,提高并行程序设计与开发水平,熟悉常见的并行计算模式,了解深度学习的主流GPU加速解决方案;实际体验高性能计算环境,能够应对主流的超算环境;提供符合自身特点的工程计算解决方案,了解高性能计算和深度学习应用场景。

主讲

刘老师 中科院单位工程师,研究领域主要集中在高性能计算机系统结构、系统软件、高性能并行算法、高性能计算应用、可重构加速计算等几个方向。多年MPI/OpenMP/CUDA/OpenCL/OpenACC优化加速经验,有多个大型项目算法的HPC云计算并行优化加速经验。
安老师 北京大学研究生毕业,曾任职于中科曙光解决方案架构师,主要从事虚拟机、Openstack、VMware、容器等云计算领域的研究和方案制定。现就职于海航科技集团,任解决方案架构师,从事云计算,AI等领域的工作,提供行业解决方案。

内容

容器基础概念,在深度学习中的应用 1,容器的基本概念,包括功能介绍,运行机制等 2,容器和虚拟机的对比,容器的优势 3,容器的应用场景,在深度学习中如何应用 Docker容器的基础理论 1.Docker容器的基本架构 2.Docker容器基础组件详解 3.Docker容器的创建方式和实例分析 4.Docker容器网络设计 5.Docker容器数据卷管理 6.Docker容器存储驱动 7.Docker镜像及镜像的分层机制 8.Docker镜像仓库管理 9.Nvidia-docker的概念和应用 10.Docker容器对于GPU的管理 11.Dockerfile详解 Docker容器技术实战上机: 1.Docker容器的环境搭建和命令使用 2.Dockerfile操作实战 kubernetes容器管理平台 1,kubernetes的由来 2. kubernetes核心概念 3. kubernetes技术架构与设计理念 4. kubernetes常用对象 5. kubernetes的核心组件和运行机制 6. kubernetes核心配置文件yaml的介绍 7. kubernetes的网络模式与常用的网络插件(CNI) 8. kubernetes的存储模式与常用的存储插件 9. kubernetes负载均衡和弹性伸缩 10.kubernetes监控解决方案 11.kubernetes日志管理 12.kubernetes DNS管理 13.kubernetes NVIDIA GPU管理和调度 14.kubernetes在深度学习中的应用 Kubernetes上机实战: 1.kubernetes快速部署 2.kubernetes操作实战(yaml配置,系统调试等)

GPU高性能计算——OpenACC编程基础与优化进阶 并行计算的应用场景和实际意义 并行计算机体系结构:处理器、内存和互连网,常用的并行计算机系统 性能分析模型:如何测量并行性能和扩展性 CPU/GPU体系结构对比介绍:流水线、多核、缓存、访存、通信模型、分支预测等 OpenACC基础:概念,与CUDA区别,编译器,生态 OpenACC四步开发流程:判断并行性,并行化表达,显式数据传递,优化 判断并行性:Profile工具pgprof 并行化表达:引导关键字Kernerls和Parallel Loop 显式管理数据的拷贝:引导关键字Data OpenACC上机实战:矢量点乘 OpenACC优化:统一内存管理,线程并行层级,collapse,tile GPU高性能计算——CUDA编程基础与优化进阶 CUDA基础:API、数据并行、线程模型、存储模型、控制、同步、并发和通信、加速比 CUDA开发环境搭建和工具配置 CUDA上机:Helloworld,向量加 CUDA优化进阶:线程组织调度,分支语句,访存优化,数据传输,原子操作 CUDA上机:矩阵乘、直方图 GPU并行计算模式及案例分析 分析调试:parallel nsight,visual profiler,cuda-gdb CUDA上机实战:卷积,reduce和scan GPU异步编程,多GPU编程(混合OpenMP和MPI)及调试调优工具 OpenACC互操作性:OpenMP,MPI,CUDA NVIDIA最新技术:CUDA 10新特性,Turing显卡 GPU高性能计算——深度学习 1.1基于GPU的交互式深度学习训练平台:DIGITS; 1.2深度学习框架的GPU加速:TensorFlow,Caffe等; 1.3 NVIDIA深度学习SDK:cuDNN,TensorRT,NCCL; 1.4深度学习显卡选择; 深度学习上机实操: Caffe,TensorFlow,Theano等通用深度学习框架的GPU加速库cuDNN的使用; 深度学习前端推理引擎TensorRT的使用;

时间地点

可咨询:18310280875 [email protected]
2019年1月 19-22日(18日报道)北京中科院计算所龙芯产业园

参会对象

从事高性能计算、GPU加速、并行计算、CUDA编程、openCV、石油、气象、化工、人工智能、深度学习、计算机视觉、人脸识别、 图像处理、行人检测、自然语言处理等领域相关的企事业单位技术骨干、科研院所研究人员和大专院校相关专业教学人员及在校研究生等相关技术人员; 软件开发人员、架构师、部署工程师、Linux爱好者、云计算工程师、运维工程师、运维开发、测试、开发工程师、IT从业者。

证明文件

人社部相关部门颁发-证书。该证书可作为专业技术人员职业能力考核的证明,以及专业技术人员岗位聘用、任职、定级和晋升职务的重要依据。

猜你喜欢

转载自blog.csdn.net/AI_Train/article/details/85373705