2일에 걸쳐 진행되는 이번 NVIDIA AI CONFERENCE은 가장 최신 딥 러닝 기술 트렌드와 함께 다양한 비즈니스에서 이를 어떻게 적용하고 있는지 그 사례들을 소개하는 컨퍼런스와 GPU 기반 최신 딥 러닝 프레임워크를 활용하여 실제 실습을 해보는 DEEP LEARNING INSTITUTE 세션으로 나누어 진행됩니다. 최신 AI 및 딥 러닝 트렌드와 다양한 업계에서의 활용 사례들을 확인할 수 있는 NVIDIA AI CONFERENCE의 자세한 세션 내용들을 아래에서 확인하세요.
DEEP LEARNING INSTITUTE 실습에 참가해야 하는 이유? 워크숍 수료와 동시에 딥 러닝의 기본 원리를 이해하고 다음과 같은 역량을 갖추게 됩니다 :
DLI 워크샵 참가 준비물워크샵 참석하기 전에 반드시 개인 노트북(Windows, Mac, Linux/Wifi/크롬 브라우저)을 지참하시기 바랍니다.
DLI 워크샵 참가 사전 안내 사항
워크샵 참가 전에 아래 단계들을 완료하시기 바랍니다.
*위 아젠다는 주최측 사정으로 향후 변경될 수 있습니다.
IBM Systems cognitive
GPU database usage to accelerate big data analysis (기업의 빅데이터 분석을 가속화하는 GPU 데이터베이스 활용을 위한 제안)
We will look at existing technologies, trends, and differentiated technology points in the GPU database and find solutions to the problems that may arise in the accelerated computing environment through solutions and introduction examples using SQream DB and IBM AC922 GPU server. Here is a solution for. (데이터 베이스 기술은 계속 변화하고 있고 그러한 변화 가운데 하나가 GPU 로 가속되는 데이터베이스 입니다. GPU 데이터 베이스의 기존 기술과 트렌드, 차별화된 기술포인트를 살펴보고 가속화 컴퓨팅 환경에서 발생할 수 있는 문제점을 SQream DB 와 IBM AC922 GPU 서버를 사용하여 얻게 되는 해결법과 도입 사례를 통해 기업에서 고민하고 있는 여러 포인트에 대한 해결점을 소개합니다.)
ABOUT THE SPEAKER:
한국IBM 시스템즈 사업부에서 Cognitive Systems 솔루션에 대한 기술 영업을 담당하고 있습니다. Linux on Power, GPU 시스템 인프라, Job Scheduler 등의 IBM 제품 담당 및 Container 와 같은 오픈 소스 기술에도 관심이 있습니다.
알체라 CTO
Visual Anomaly Detection Technology: You can't protect what you can't see
이번의 주제는 한국전력 관련 일을 포함하고 알체라의 업무들을 언급할 예정입니다. Utility Industry 에서 비정상상황을 감지하는 것들에 대한 기술을 말씀드리고, 학습데이터에 대한 AI 기술 활용 및 Graphics 기술 활용 등에 대해서 언급할 예정입니다.
ABOUT SPEAKER:
1) 학력: 위스컨신대학 석사(2005), 서울대 PhD Candidate (2014~)
2) 경력 : 삼성종합기술원 전문연구원 9년(2006~2014), SKT 미래기술원 매니저 2년(2014~2016)
KAIST M.S. Student
Virtual Vehicle Body Structure Mode Prediction by CAE deep learning
The virtual Simulation is most important key to recent vehicle development of global automotive OEM. It is more required to get innovative approach that meets the time to market and performance optimized car. The convergence between virtual simulation and deep-learning could leads a cutting-edge technology of the industry.
- KAIST School of Computing Graduate School - Imbalanced task classification for real-world application - Meta Learning for Imbalanced(Any-shot) and out-of-distribution - Meta Learning with Bayesian Framework
현대자동차 R&D Division
윤경열 책임
-Hyundai & Kia Motors R&D Division-
Senior Research Engineer of Body Durability CAE Team Project Manager of Simulation Process & Data Management Advisory Member of Virtual Vehicle Development TF
나동현
서울대학교 Machine Intelligent Lab
Research in Natural Language Processing
자연어 처리 분야 Question Answering System 연구 트렌드와, 자연어 처리 기술을 Signal Processing 분야에 확장 적용한 (multimodal speech emotion recognition) 연구 결과를 소개합니다.
서울대학교 전기정보공학부 박사과정 재학 중 연구분야: Question Answering System, Multimodal Speech Emotion Recognition
NAVER Clova AI Research 리더
Deep Learning Research of NAVER Clova for AI-Enhanced Business
본 발표에서는 딥러닝 기반의 OCR, 음성합성, 음성인식, 대화모델 등 네이버 클로바의 AI B2B 핵심 기술을 공개된 논문 중심으로 모델 구조와 데모를 통해 공유합니다. 그리고 차별화된 AI 기술개발을 위한 다양한 연구사례와 이를 가능케하는 네이버 Clova 의 연구플랫폼인 NSML에 대해서도 공유합니다.
2004.2 서울대학교 컴퓨터공학부 학사 2015.2 서울대학교 전기컴퓨터공학부 박사 2003.12 ~ 2006.1 삼성 SDS SW Engineer 2015.3 ~ 2016.12 네이버랩스 Tech Lead 2017.1 ~ 현재 네이버 Clova AI Research 리더
NVIDIA Director
RAPIDS, GPU Accelerated Platform for Data Science
Data Science를 위한 GPU 가속라이브러리 및 활용사례 소개 - cuDF (Data preparation), cuML (Machine Learning), cuGRAPH (Analytics)
NVIDIA 2018.04에 합류하여 Solution Architect 팀 매니저로 일했으며, 현재는 NVIDIA가 공개한 RAPIDS라는 Data Science용 오픈소스 플랫폼을 사용하여, Big Data 분야의 GPU 가속 컴퓨팅 활용에 도움과 협력을 만드는 데 중점을 두고있습니다.
Samsung SDS Lab장 (Lab Leader)
삼성SDS Brightics Deep Learning 플랫폼 소개
삼성SDS의 Deep Learning 개발 Platform인 Brightics Deep Learning의 Auto-Labeling, Model 추천 등)과 분산학습, 추론가속 기능을 개발하게 된 배경과 간략한 동작 원리를 소개드리겠습니다.
삼성SDS 연구소 2006년 입사후 IoT 관련 연구개발 6년, 다양한 기술기획/리딩(의료데이터분석, 실내측위, Computer Vision 플랫폼, HPC) 경험후, 현재 AI플랫폼Lab장을 맡고 있습니다.
NAVER
Naver CLOVA AI B2B 비즈니스 적용 전략
Service - 클로바 스피커 런칭 직후 AI 기술 및 상용화를 위해 많은 고민 - 지속적인 성능 개선과 서비스 다양화를 통해 기술 우위와 사업성을 입증 - 네이버 및 라인의 다양한 서비스에 적용되어 사용자에게 가치를 전달
Business - 입증된 AI 기술력과 서비스 상용화를 통해 쌓은 노하우를 기반으로 AI B2B 시장 진출 - 산업 별 최적화/개인화된 서비스를 위한 AI Tool 개발 - 선택과 집중, 파트너십에 대한 중요성 식별 - 컨설팅, 솔루션사, SI 벤더 파트너십을 통한 Total AI Solution 구축
넥슨 플랫폼 다음/카카오 검색 피키캐스트 컴패니에이아이 네이버 클로바
SKT Manager
효율적 AI Infra를 위한 GPU Cloud 구축 사례
Private GPU Cloud 구축을 통해 AI 개발 생산성을 향상시키고, 전사 AI Infra 투자비용을 절감시킨 사례를 소개합니다.
SKTelecom SW Labs., AI 인프라 설계 및 GPU Cloud 솔루션 Tech. Presales
NVIDIA
효율적인 Deep Learning 서비스 구축을 위한 핵심 애플리케이션 - NVIDIA TensorRT Inference Server
본 세션에서는 학습된 Deep Learning 모델을 이용하여 Inference 서비스를 구축할 때 효과적으로 이용할 수 있는 NVIDIA TensorRT Inference Server 애플리케이션에 대해 설명합니다. NVIDIA TensorRT Inference Server는 Caffe2, Tensorflow, TensorRT, ONNX 등 다양한 framework 기반의 inference 기능을 GPU 뿐만 아니라 CPU 기반하에서도 서비스 할 수 있습니다. 그리고 Inference 서비스 개발 시 GPU 사용률 극대화를 위한 multiple instance 기반의 concurrent execution 환경을 제공하며, client request에 대해 다양한 scheduling algorithm을 통해 throughput 뿐만 아니라 latency도 보장 가능한 inference service를 구축할 수 있습니다. 그리고 RNN 기반의 stateful inference 서비스 기능도 최근에 업데이트 되었으며 custom backend 모듈 연동 기능을 통해 다양한 inference engine 연동도 가능합니다.
NVIDIA에서 GPU 기술 관련 고객과의 협업 프로젝트 리드를 담당하고 있습니다. x86 기반의 HW, system SW, OS 및 플랫폼 등 전반적인 데이터센터 기술에 관련된 다양한 지식과 경험이 있으며, 최근에는 DL 학습 및 추론의 성능 극대화를 위한 최적의 GPU 시스템 및 플랫폼 구성과 관련하여 다양한 업무를 수행하고 있습니다.
NVIDIA Solutions Architect
Deep Learning inference 가속화를 위한 NVIDIA의 기술 소개
NVIDIA는 Deep Learning의 학습부터 추론까지 최적의 End-to-End 솔루션을 자랑합니다. 이번시간에는 NVIDIA의 Inference 기술에 대하여 살펴보고 NVIDIA TensorRT를 주제로 Why, What, How에 대하여 알아보는 시간을 갖도록 하겠습니다.
현재 NVIDIA에서 Deep Learning Solutions Architect로 재직중이며, NVIDIA의 딥러닝관련 기술과 더불어 딥러닝 관련 지식전달자의 역할을 하고 있습니다. Computer Vision, GPGPU 전공을 기초로 Autonomous vehicle, Nueromorphic processor, Mobile GPU 등의 연구개발 경험이 있습니다.
NVIDIA Developer Technology Engineer
Adding a custom CUDA C++ Operations in Tensorflow for boosting BERT Inference
This talk was designed to illustrate how having CUDA knowledge can help DL developers understand and tune their deep learning applications. We explain how to implement Tensorflow custom operations to utilize GPU more efficiently in running DL workloads, esp. BERT Inference for SQuAD. We also deliver the key insights on why the techniques introduced here can achieve better performance by discerning the profiling result.
Minseok Lee is a Developer Technology Engineer at NVIDIA. His main role is to analyze and optimize ML and HPC applications to improve their end-to-end performance on GPUs. Before joining NVIDIA, he worked as a C++ library developer, and he also studied, in the graduate school, how to efficiently utilize GPU resources for CUDA workloads.
SKT Team Leader
Visual recognition in the real world services
Visual recognition is one of the most active and hot area owing to deep learning. Many papers, public dataset and open codes are open to anyone in that area. However it needs so many other efforts to apply visual recognition technology to real world domain services. SK Telecom has been developing it to enrich many existing services like smart display NUGU, T map and so on. In this talk such efforts beyond open sources will be shared.
Team Leader, SK Telecom AI Center Senior Researcher, Samsung Advanced Institute of Technology M.S., University of Wisconsin, Madison
LG 유플러스 FC 부문 5G 서비스 추진그룹 5G 신규사업
U+ 5G 클라우드 게임 GeForce Now
클라우드 게임은 왜 필요한가? 클라우드 게임에 5G는 왜 필요한가? 무엇이 준비되었으며, 무엇이 해결되어야 하는가?
‘04년 LG경제연구원 ‘13년 LG전자 ‘16년 LG유플러스
NETAPP Global Solution Engineer
AI/ML/DL 환경을 위한 end-to-end data transference
AI / ML / DL 환경에서 Edge 부터 Core, Cloud에 이르기까지 data의 관리를 손쉽게 해줄 수 있는 data transfer technology 를 소개합니다.
NetApp, Global Solution Engineer
GPU를 활용한 Image Augmentation 가속화 방안 - DALI
Deep Learning 학습에 있어서 GPU의 사용으로 획기적인 성능 향상이 이루어 졌습니다. 다만, 아직도 end-to-end pipeline 관점에서 많은 작업들이 CPU에서 이루어지고 있고, 이로 인해서 전체적인 학습 속도의 향상에 많은 bottleneck이 존재하는 것이 현실입니다. 특히 image augmentation 작업이 대표적인 CPU bottleneck이 발생하는 부분인데, NVIDIA의 DALI를 통해서 image augmentation을 GPU에서 효과적으로 수행하여 end-to-end pipeline의 GPU 가속화하는 방안을 설명하도록 하겠습니다.
현재 NVIDIA에서 Solution Architect로서 NVIDIA의 기술을 활용하고자 하는 분들을 도와드리고 있으며 요즘은 인터넷 기업에 집중하고 있습니다. 딥러닝을 활용한 연구(Vision, NLP, 추천) 뿐만 아니라 최적화(TensorRT) 및 이를 위한 platform까지 관심을 갖고 공부하고 있습니다. 이전에는 수술로봇개발 및 초음파 영상처리/시스템 개발을 했었습니다.
Tensor Core를 이용한 딥러닝 학습 가속을 쉽게 하는 방법 (Getting more DL Training Acceleration using Tensor Cores and AMP)
Tensor Core는 더욱 빠른 딥러닝 가속을 위해 CUDA Core와는 함께 NVIDIA GPU에 포함되어 있는 logic입니다. 이를 쉽게 이용할 수 있도록 AMP(Automatic Mixed Precision) 기술과 동작 원리를 소개하고 예제를 바탕으로 이를 잘 활용하는 방법을 알려드립니다.
ABOUT THE SPEAKER: 현재 NVIDIA에서 Solution Architect로서 NVIDIA의 기술을 활용하고자 하는 분들을 도와드리고 있으며 요즘은 인터넷 기업에 집중하고 있습니다. 딥러닝을 활용한 연구(Vision, NLP, 추천) 뿐만 아니라 최적화(TensorRT) 및 이를 위한 platform까지 관심을 갖고 공부하고 있습니다. 이전에는 수술로봇개발 및 초음파 영상처리/시스템 개발을 했었습니다.
KAIST Ph.D. candidate
DL 기반의 비디오 스트리밍 최신 연구
Deep Learning(DL)은 super-resolution, frame interpolation, denoising 등의 화질 향상 기술에 비약적인 성능 증가를 가져왔습니다. 이 강연에서는 DL의 발전이 앞으로의 비디오 스트리밍에 어떠한 변화를 가져올 수 있을지에 대해 최신 연구 사례를 들어 소개합니다.
Education: 1. B.S. in Electrical Engineering, KAIST (2012.02-2017.02) 2. Ph.D. candidate in Electrical Engineering, KAIST (2017.02-) / Advisor: Dongsu Han (http://ina.kaist.ac.kr/~dongsuh/)
Publication/Award 1. How will Deep Learning Change Internet Video Delivery? / Hyunho Yeo, Sunghyun Do, Dongsu Han / ACM HotNets 2017 2. Neural Adaptive Content-aware Internet Video Delivery / Hyunho Yeo, Hyunho Yeo, Youngmok Jung, Jaehong Kim, Jinwoo Shin, Dongsu Han / USENIX OSDI 2018 (MapReduce, Bigtable and Tensorflow were published in OSDI) 3. Best Research Achievement Award in Electrical Engineering, KAIST, 2018
INSPUR AI PDT Manager
Design GPU Systems for Hyperscalers, Diverse AI Applications and Open Compute standard datacenters
INSPUR is a leading cloud computing and AI computing data center infrastructure provider WW Top 3 server vendor according to Gartner and IDC AI full-stack solution provider Design GPU Systems for versatile scenarios.
Work as AI server product line PDT manager of INSPUR.
Pure Storage APJ CTO
Data: The Fuel for AI
It is said the most important ingredient in the new world of AI is data. However, for data to be effective in supporting AI, it must be abundant and accessed rapidly. Hear from Pure Storage about simplifying the infrastructure layer to allow data scientists to focus on their most important tasks.
ABOUT THE SPEAKER: Matthew Oostveen is the Chief Technology Officer for Pure in Asia Pacific & Japan. He is a member of the global CTO organization at Pure that works on designing future systems. He is also focused on enabling Pure’s customers to reach new heights of capability and efficiency in their organizations by guiding them in their journey to future technologies. Oostveen has deep experience in working closely with customers in the region across a range of technologies. Prior to joining Pure, he had CTO roles with Dell EMC and VCE and also held executive roles at leading companies such as IDC, Microsoft and IBM. As an industry analyst with IDC Matt has authored and published over 70 research papers on a variety of technology related topics, forecasted the IT market and produced predictions documents on how the future will evolve. This diverse background has given him a unique perspective of the IT landscape with particular deep expertise in the areas of cloud computing, big data, data analytics, AI and how these technologies intersect with one another. More importantly, he has a keen understanding of the dynamics between technology and business imperatives which has enabled him to serve as a trusted advisor to many large enterprises. Oostveen has degrees from the Queensland University of Technology and Macquarie Graduate School of Management. He currently resides in Singapore with his young family and is a certified life saver.
Element AI Head of North Asia
Enterprise AI의 Lessons Learned, Challenges 및 성공적 도입을 위한 조언
Element AI가 지난 2년간 국내외에서 고객사와 함께 진행한 Enterprise AI 의 도입 과정에서 배운 교훈(Lessons Learned)와 이에 대응하기 위한 Element AI의 Enterprise AI 도입 방향, 전략을 공유합니다. 특히, 고객들이 AI 도입 과정에서 마주한 Challenge 및 성공적인Enterprise AI 도입을 위한 필수적 고려 요소에 대해 말씀드리고자 합니다.
Ben leads Element AI’s technology vertical and is responsible for the North Asia operations. Prior to joining Element AI, Ben was the head of AI strategy, business development and partnership in Kakao Corporation. Before that he spent 17 years in strategy consulting firms and IT companies such as Booz & Co., Monitor Group, Accenture, and IBM to provide the advisory services to enterprises across Asian countries in multiple sectors including IT, financial services, and energy/utilities, with expertise in new business development, growth & go-to-market strategy. Ben is a B.S in engineering from Seoul National University.
Quadro revolutionizes the Desktop and Data Center for AI/Data Science and Manufacturing
Millions of creative and technical professionals accelerate their workflows leveraging the NVIDIA Quadro RTX platform -- the world’s preeminent visual computing platform. This proven and trusted GPU computing platform is used by engineers to produce the most compelling new automotive designs or even the chairs you sit on, is also enabling artists to create photorealistic imagery, by providing the computation required to allow light to bounce off surfaces and look just as they would in real life via real-time ray tracing. This computing platform also enables AI-enhanced graphics, video and image processing to speed creative workflows and tensor cores to accelerate deep learning inference workloads; and it’s leveraged by data scientists to maximize productivity, reduce time to insight and lower project costs. Because NVIDIA Quadro RTX is available on a desktop or mobile device, in the data center with Quadro Virtual Data Center Workstation (Quadro vDWS) software, or in the public cloud with Quadro Virtual Workstations -- it can be used to accelerate any application, from anywhere. And as the modern digital workplace becomes more graphics intensive, GPU acceleration can also be used to provide a native-PC user experience to meet the growing needs of virtualized office productivity applications with NVIDIA GRID.
Raj Mirpuri has over 15 years of experience as an enterprise sales, business and product management executive driving professional visualization & virtualization sales at NVIDIA. In his global role as Vice President of Enterprise Sales, Raj is responsible for growing NVIDIA Quadro & Tesla GPU revenues and GRID software sales. Previously, Raj has held senior positions in OEM & partner sales and in product management.at NVIDIA and SGI.
카카오 SW Engineer
TensorRT를 이용한 OCR Model Inference 성능 최적화
카카오에서 개발한 OCR 모델의 Inference 과정을 TensorRT를 이용해 최적화한 사례를 소개합니다. Tensorflow로 학습한 모델을 TensorRT로 변환하는 과정과, TensorRT에 포함되지 않은 연산을 위한 Custom Layer의 적용 방법을 중점적으로 다룹니다.
대학원에서 텍스트 분류 및 자동 요약 기술을 연구하였고, 현재 카카오에서 딥러링 모델 개발 및 최적화를 다루고 있습니다.
GPU Profiling 기법을 통한 Deep Learning 성능 최적화 기법 소개
본 세션에서는 Nsight Compute를 통해 Deep Learning에서의 병목현상을 파악하고 End-to-End Deep Learning 최적화를 위해 profiling 툴을 어떻게 활용할 수 있는지에 대해 소개합니다.
ABOUT THE SPEAKER: NVIDIA Solution Architect로 NVIDIA 기술 지원 담당을 담당하고, 컴퓨터비전 및 딥러닝에 관한 다양한 경험과 지식을 가지고 있습니다.
지능형 비디오 분석을 위한 NVIDIA Deepstream SDK 및 Transfer Learning Toolkit 소개
본 세션에서는 NVIDIA DeepStream SDK를 사용하여 AI 기반 비디오 분석 솔루션 구축 방법과 Transfer learning Toolkit에 대해 소개합니다. Transfer Learning부터 실제 비디오 분석 솔루션 구축에 이르기까지 실제 예시를 통해 설명합니다.