DLI 워크샵 참가 준비물
워크샵 참석하기 전에 반드시 개인 노트북(Windows, Mac, Linux/Wifi/크롬 브라우저)을 지참하시기 바랍니다.
2일에 걸쳐 진행되는 이번 NVIDIA AI Conference은 가장 최신 딥 러닝 기술 트렌드와 함께 다양한 비즈니스에서 이를 어떻게 적용하고 있는지 그 사례들을 소개하는 컨퍼런스와 GPU 기반 최신 딥 러닝 프레임워크를 활용하여 실제 실습을 해보는 Deep Learning Institute 세션으로 나누어 진행됩니다. 최신 AI 및 딥 러닝 트렌드와 다양한 업계에서의 활용 사례들을 확인할 수 있는 NVIDIA AI Conference의 자세한 세션 내용들을 아래에서 확인하세요.
Recently, deep neural networks have achieved near human-level performance on number of tasks such as object categorization and machine translation. While this is an impressive result, deep learning is yet to bring high impact to our everyday life, due to the small scale of problems considered. For example, in case of visual object recognition, there exist more than hundreds of thousands of nameable objects, and this set of categories is ever growing with a plethora of products that are newly introduced to our world every day. Thus, a truly practical categorization system should be able to recognize millions of object categories. However, the current state-of-the-art deep learning models obtain only about 30% accuracy at maximum when classifying tens of thousands of classes. This low performance results from new challenges introduced in the large-scale deep learning, such as increased confusion due to number of classes, data/class imbalance, difficulty in finding the optimal network structure, and dealing with larger number of parameters and training time. In this talk, I will discuss about some of the recent models and algorithms I have developed to tackle new challenges posed by the large-scale deep learning problem.
In recent years, deep learning has been used in many researches in medicine and healthcare applications. Google published very impressive research result on diagnosing diabetes retinopathy and Lunit also reported super-human results in various radiology and pathology studies. Therefore, many medical deep learning startups are emerging recently. However, there are a lot of homeworks to solve in order to commercialize deep learning technology into actual medical field. This talk explores solutions to these problems, centering on examples of how deep learning in the real world of medicine are growing.
Data scientists face a difficult task to apply deep learning on real-world problems for their organization. Yet by planning in advance, AI projects can be simpler to manage, faster to deploy, and less expensive to implement. In this talk, learn how real-world enterprises addressed these challenges to accelerate their AI initiatives.
본 발표에서는대규모 인프라에서의 딥러닝과 머신러닝에 대한 NVIDIA의 최신 기술에 대한 자세한 설명과 데모를 통해 업무에 어떻게 활용할 수 있는지에 대해서 살펴볼 예정입니다. DGX-2는 GTC에서 발표한 최신 딥러닝 학습 플랫폼으로 NVSwitch로 Tesla Volta GPU가 16장이 연결된 시스템입니다. DGX-2를 활용하면 CPU 300 노드에서 학습할 수 있는 속도를 얻을 수 있습니다. DGX SATURNV는 엔비디아에서 내부에서 사용하는 딥러닝 학습용 인프라로, 그 구조는 ISC18에서 소개되었고, DGX POD 백서를 토대로 대규모 노드를 구성에 대한 노하우를 얻을 전달해 드릴 예정입니다. RAPIDS는 빅데이터 분석에 쓰일 수 있는 오픈소스 플랫폼으로 빅데이터 분석및 머신러닝에 GPU가속을 활용하실 수 있습니다. 시간이 허락되면 도커환경에서 실제 데모를 보여드릴 예정입니다.
AI / ML / DL, Semantic segmentation. Vector data processing, satellite imagery, high resolution satellite data, maps, 3D maps.
Generative Adversarial Networks를 이용한 Image-to-Image Translation과 관련된 내용을 발표합니다. 이때 이미지간 pair가 존재하지 않아도, 변환이 가능하도록 하는 Unsupervised방식에 대해 발표를 할것이며, NVIDIA에서 만든 MUNIT (Multimodal Unsupervised Image-to-Image Translation)을 포함한 다양한 논문들과 함께 관련된 연구를 하면서 얻은 경험들을 공유드리도록 하겠습니다.
알파제로 알고리즘을 오목에 적용하기 위해 고군분투했던 이야기. 틱택토에 MCTS를 적용하는 것부터 난관이었던 초기의 내용부터 알파오목 학습에 성공하기까지의 내용을 시간 순으로 정리하였다. 무지막지한 컴퓨팅 파워가 필요한 논문의 알고리즘을 개인 PC에서 구현하기 위해 경량화시켰던 내용들, 그 과정에서 겪었던 많은 시행착오와 문제를 해결했던 내용들을 발표합니다. 알파오목 에이전트를 전세계의 사람들과 대국을 할 수 있도록 로컬 환경에서 웹 서비스 환경으로 이관하기 위해 고려해야되는 사항들과 필요한 기술들에 대해서 설명합니다. 또한 알파오목 에이전트가 어떤 판단을 하고 있는 지 알기 위해 에이전트 가시화를 어떻게 했는 지 설명합니다. 마지막으로 실제로 참가자분들과 알파오목 에이전트 간 대국하여 라이브 데모를 하도록 하겠습니다.
현대모비스에서 개발 중인 자율주행 기술은 Engineering 특성 상 Intensive Computing을 필요하며, Nvidia Computing Platform 및 DDPX Xavier Board를 사용한 개발 사례 공유.
1) Real-time operating system in autonomous driving
2) Real-time perception in autonomous driving
AI is an essential technology not only to enable autonomous vehicles and robots, the latest developments in AI technology promises to enable organisations to significantly increase the efficiency of developing safe, reliable and predictable AI as well as non-AI software systems for autonomous vehicles. Cambridge Consultants, a preferred NVIDIA partner for ground breaking Deep Learning development will introduce promising, new AI technologies and explain how they can be put to work by autonomous system engineers.
ADAS 및 자율주행을 위한 Deep Learning 기반 물체 검출 소프트웨어 SVNet을 소개한다. SVNet은 기상악조건 및 저광량에 강하고 작은 물체와 일부가 가려진 물체를 검출하는 데에 탁월한 성능을 발휘한다. SVNet의 구조를 간략하게 설명하고 이를 Jetson TX2, Jetson Xavier와 Drive PX2 등의 보드에서 실시간에 동작시키기 위해 최적화 하는 과정에서 cuDNN과 TensorRT 등 NVIDIA의 라이브러리 및 프레임워크를 사용한 경험을 공유한다.
New mobility service operation with autonomous driving shuttle will be covered with key technology e.g. mobility system, service infra and datahub.
인공 지능 적용에는 휴식과 이동 중의 방대한 양의 데이터가 필요합니다. MapR은 자체 구축형 및 클라우드에서 동시에 실행할 수 있는 하나의 플랫폼에서 파일, 테이블 및 이벤트 스트림을 지원하는 유일한 플랫폼입니다. 하나의 아키텍처, 하나의 보안 모델 및 AI의 가장 빠른 개발을 위해 GPU 옆에 데이터를 배치하는 기능. MapR은 AI 를 지금 즉시 만들고 전달할 수 있는 기능을 제공합니다! 네트워크에는 무한 대역폭이 없고, 데이터 과학자들은 AI 수행을 위해 데이터를 다른 시스템에 복사 할 때까지 기다릴 시간이 없습니다. NVIDIA와 결합 된 MapR은 경쟁에서 앞서 귀사의 비즈니스를 추진할 수 있는 최고 성능의 컴퓨팅 기능을 제공합니다.
2015년 다르파 로보틱스 챌린지 이후 로봇 기술과 자본의 투자가 급격하게 진행되고 있습니다. 이로 인해 머지 않은 미래에 로봇은 우리 삶에 깊이 들어오게 될 것으로 예상됩니다. 모든 기술이 그러하듯 로봇 기술도 우리 삶으로 들어와서 우리 삶의 모습을 크게 바꾸게 될 것입니다. 산업의 변화는 직업의 변화를 가져오고 직업의 변화는 우리 개개인의 삶의 방식을 변화시킬 것입니다. 로봇과 인공지능 기술이 만들어낼 인간 사회의 변화, 사회가 변할 때 필연적으로 발생되는 직업의 변화. 이 변화를 어떻게 대처해 나가야 할까요?
변화는 위기이기도 하지만 기회이기도 합니다. 다시 말해서 변화의 방향을 미리 포착한 사람들에게는 기회이고 그렇지 못한 사람들에게는 위기일 것입니다. 그리고 시대의 변화를 기회로 만들었던 사람들은 그 시대의 주인공이 되었었습니다. 다가올 로봇의 시대, 우리는 어떤 대비를 해야 이 변화를 기회로 만들 수 있을까요? 그 고민을 같이 나눠 보려고 합니다.
NVIDIA의 자율 주행 platform과 Solution은 AI/DL을 기반으로 나날이 향상 되어 가고 있습니다. 이번 session에서 최근 NVIDIA가 발표한 다양한 AD platform에 대한 준비 현황을 소개해 드릴 예정입니다.
시장조사기관에 따르면 향후 몇 년간 AI 솔루션에 대한 투자가 연평균 54%의 성장율로 늘어나서 2020년까지 50조원 규모가 될 것으로 예상된다고 합니다. 산업 분야에 상관 없이 정보와 지능은 경쟁력 유지를 위한 핵심적인 요소이기 때문에 AI의 도입은 피할 수 없는 현실입니다.
하지만 선도적인 회사들을 제외한 대다수의 엔터프라이즈에게 AI의 도입은 여전히 어려운 과제입니다. AI는 클라우드 서비스를 사용하거나 소프트웨어 구매하는 방법을 통해서 쉽게 적용할 수 있는 영역이 아니기 때문에 비즈니스 특성과 요건에 맞게 도입 전략을 세우고 AI Application Customization이 필요합니다.
이번 세션에서는 AI 도입을 통해서 Business 혁신을 만들어낸 여러 사례들을 공유하고 HPE와 nVidia의 AI 도입에 대한 방법론과 솔루션을 소개하고자 합니다.
네이버랩스 로보틱스그룹은 생활환경지능을 비전으로 공간과 이동에 대한 연구를 진행하며, 일상공간에서 자유롭게 움직일 수 있는 이동성, 삶의 맥락을 이해할 수 있는 인공지능, 노동력과 서비스를 제공하기 위한 로봇 팔과 손의 고도화에 역량을 집중하고 있다. 특히, 3차원 실내지도, 클라우드 기반의 위치 인식 및 경로 생성, 강화학습을 이용한 장애물 회피 등의 기술을 활용하여 제작 단가를 크게 낮추면서도 고품질의 자율주행 성능을 구현하는 서비스 로봇을 개발하고 있다. 본 세미나에서는 네이버랩스에서 진행 중인 다양한 로봇 연구와 이러한 기술을 개발하는 과정에서 겪었던 여러 도전 과제들에 대해 소개한다.
반도체 공정 기술이 발달 되면서 선폭의 미세화로 기존 방식과는 다르게 일하는 방식의 변화가 필요해졌다. 또한, GPU와 같은 새로운 기술을 통해 Computing Cost가 개선되어 연산량이 많은 Deep Learning 방법을 더욱 쉽게 사용할 수 있게 되었다. 이러한 변화들과 더불어 다양한 형태의 data가 무수히 많이 적재되고 있는 반도체 환경은 이론적으로 제안되고 있는 다양한 방법들을 적용해보고 그 의미를 확인할 수 있는 가장 좋은 장소이다. 본 발표에서는, data 형태에 따라 시도한 Deep Learning을 적용한 대표적 사례들을 소개하고 진행을 하면서 얻게 된 경험들을 나누어보고자 한다.
Adversarial attack은 분류기를 오분류하게 하는 의도적/비의도적 노이즈를 뜻한다. 최근의 머신러닝 알고리즘들은 매우 적은 노이즈가 포함된 입력 이미지 조차 쉽게 오분류 할 정도로 adversarial attack에 매우 취약하다. NIPS 2018 Adversarial Vision Challenge는 이러한 adversarial attack에 강건한 분류모델을 제시하는 것을 목적으로 하고 있다. 강건한 분류 모델은 검사 장비 등에서 발생가능한 비의도적이며 물리적인 현상에 의한 adversarial attack에도 충분히 적용될 수 있다. 본 발표에서는 LG CNS AI 연구팀이 NIPS 2018 Adversarial Vision Challenge에 출전하면서 얻은 경험들을 바탕으로 adversarial attack에 강건한 분류모델을 만들기 위한 방법론들을 소개하고자 한다.
The supervision in curating datasets is sometimes not enough even for the target task and is expensive and bias prone. I will discuss a few ideas to build recognition models with information going beyond the given datasets.
많은 산업에서 공정의 효율성, 인건비 감축을 위해 스마트 팩토리가 도입되고 있다. 스마트 팩토리에서 딥러닝이 적용되는 다양한 분야 중, 이번 발표는 카메라로 물체의 문자를 인식하는 분야를 다룬다.
정확성과 신속성을 요구하는 산업 공정에서 기존 비전 시스템은 신속하지만 정확성이 떨어지는 경향이 있다. 그에 비해 딥러닝을 적용한 시스템은 두 요구조건을 만족시키는 결과를 나타낸다. 이번 발표에선 Single Shot Multibox Detector(SSD)를 이용해 실시간으로 문자를 인식한다. 실시간으로 검출하기 위해선 속도가 중요한데, 파이썬 환경에서의 Tensorflow는 속도가 느린 단점이 있다. 그 단점을 극복하기 위해 C와 CUDA(GPU)로 Inference program을 만들고 Tensorflow로 학습된 모델을 배치시켜 실시간으로 문자 인식을 하였다.
Tensorflow에선 연산시간이 약 5초 걸리는데, Inference program에선 약 2.5초로 단축시켜 실시간으로 문자 인식이 가능하도록 설계하였다.
2017년 노벨 물리학상이 수여된 ‘중력파의 최초검출’은 인류에게 우주를 관측하는 새로운 수단을 제공하여 우주를 더욱 깊게 이해하기 시작한 출발점이라 할 수 있다. 이는 마치 400여 년 전 갈릴레오 갈릴레이가 망원경을 천문관측에 처음 도입하기 시작한 사건에 비견된다. 불과 첫 중력파가 발견된 지 채 2년이 지나지 않아 관측된 중성자별 충돌에서 발생한 중력파의 검출과 함께 동반된 전자기파는 우주와 그를 구성하는 원소의 생성기원을 밝혀주기 시작했다. 이러한 새로운 천문관측의 수단은 방대한 관측 데이터와 이를 분석하고 처리하는 데이터 처리 기법, 그리고 막대한 양의 컴퓨팅 자원의 도움 없이는 불가능하다. 최근 중력파 관측에 있어서 딥러닝을 비롯한 여러 인공지능의 기법들이 도입되고 있고, 일부는 이미 작동하여 관측에 기여하고 있다. 더불어 고도화된 새로운 기법들을 적용하려는 시도들이 이루어지고 있다. 본 발표에서는 중력파 천문학 분야에서의 인공지능 기술의 적용사례들을 소개하고자 한다.
Large-scale electronic structure simulations coupled to an empirical modeling approach are critical as they present a robust way to predict various quantum phenomena in realistically sized nanoscale structures that are hard to be handled with density functional theory. For tight-binding (TB) simulations of electronic structures that normally involve multimillion atomic systems for a direct comparison to experimentally realizable nanoscale materials and devices, we show that graphical processing unit (GPU) devices help in saving computing costs in terms of time and energy consumption. With a short introduction of the major numerical method adopted for TB simulations of electronic structures, this work presents a detailed description for the strategies to drive performance enhancement with GPU devices against traditional clusters of multicore processors. While this work only uses TB electronic structure simulations for benchmark tests, it can be also utilized as a practical guideline to enhance performance of numerical operations that involve large-scale sparse matrice.
미국 에너지부 국립 연구소를 위해 IBM 과 NVIDIA 의 파트너십으로 제작된 서밋 (summit) 이 세계에서 가장 강력한 수퍼 컴퓨터로 등극하였습니다. IBM 서밋은 초당 2억 회의 계산을 수행할 수 있어 서밋의 이전의 순위에서 1위를 차지했던 타이후라이트(TaihuLight)보다 60% 더 빠르기도 하며 서밋을 위해 수년전부터 개발돼 왔으며 2개의 22코어 IBM파워9칩과 6대의 엔비디아 테슬라 V100칩을 사용하는 IBM 서버 4608대로 구성되었습니다.
본 세션에서는 서밋 프로젝트 사례를 통해 화첨단기술 집약체인 슈퍼컴퓨터 활용 분야를 살펴보고 미리 대비해야 하는 기술 포인트를 제안합니다.
현재 개발 중인 전지구를 대상으로한 날씨모델들은 시간이 지남에 따라 고해상도의 모델링이 요구되고 있다. 따라서 오늘날 다양한 다른 모델들은 CPU중심에서 벗어나 다른 고성능의 가속 프로세서들을 위한 코드개발이 진행 되고 있다. 이에 우리 사업단에서는 NVIDIA GPU가속 프로세서를 사용 하기 위해 CUDA와 OpenACC를 이용한 코드 개발이 이루어지고 있다. 본 발표에서는 이 중 OpenACC의 적용 사례에 대한 내용을 발표하고자 한다.
본 발표에서는 NVIDIA Tesla GPU 기반 슈퍼 컴퓨터를 이용하여 항공우주공학 분야에서 고정밀 유동 해석 사례를 발표하고자 한다.
컴퓨터 비전 분야에서 주어진 비디오를 이용하여 미래에 존재할 프레임을 예측하는 것은 매우 중요한 문제이다. 특히나 영상 예측의 경우 한정된 정보를 이용하여 고차원의 영상정보를 예측해야 하기 때문에 태스크의 난이도가 높다. 본 연구에서는 이러한 문제를 해결하기 위하여 다중 입력 영상에 대한 시공간적 분석을 수행한다. 이를 위해 동시간대에 촬영된 다양한 파장 대역의 위성 영상을 이용하여 시공간적 분석을 수행하고, 이를 기반으로 주어진 영상의 다음에 위치할 위성 영상을 예측하는 딥러닝 모델을 설계 및 학습시키는 태스크를 수행한다. 수행 결과 다중 영상을 이용한 시공간적 분석이 영상 예측에 있어 효과적인 방법임을 보인다.
인간의 진보를 위해 강력한 컴퓨팅 기술이 필요한 고객들이 있습니다. 인간의 진보을 위한 AI, Machine 및 Deep Learning에 가장 적합한 Dell EMC의 시스템을 소개 합니다.
- Introduction of Alibaba Cloud
- GPU Offerings on Alibaba Cloud
- Use cases
NVIDIA announced Turing Architecture which harnesses significant advances in deep learning inferencing, professional graphics applications, and PC gaming while releasing CUDA 10 highly optimized for this next-generation architecture. In this talk, we will introduce their key features including new Tensor Cores; RT Cores; CUDA Graphs; Library Improvement; and new Developer Tools, at the same time, emphasizing their importance for the future of parallel software development.
구슬이 서말이라도 꿰야 보배라는 말이 있듯이, 훌륭한 모델 개발을 해도 실제 서비스나 응용 프로그램에 적용을 하지 못하면 가치를 보여줄 수 없습니다. 그런데, 실제 서비스에 적용하면서 모델 연구때와 또 다른 기술적인 문제를 접하게 됩니다. 많은 경우 특정 시간 내에 처리를 완료해야 하는 시간적인 제약과 관련된 성능 및 확장성의 문제입니다. 예를 들면 인퍼런스와 같은 모델 적용을, 대량의 데이터에 대해서 처리하거나 사용자의 요청에 짧은 응답 시간으로 처리를 해야 하는 경우입니다. 모델 개발자가 이러한 모델링과 성능적인 문제를 모두 해결하기는 간단하지 않기 때문에, 네이버에서는 C3 DL이라는 딥러닝 플랫폼을 개발해오고 있습니다. 이 발표에서는 C3 DL 플랫폼 자체와 해결하려는 기술적인 문제에 대해서 소개합니다.
TensorRT를 활용하여 DL Inference를 최적화하는 방안에 대해 소개합니다. 본 세션에서는 TensorRT를 실제로 적용해가는 과정을 통해서 최적화 과정에서 성능 및 Inference 환경에 대하여 고려해야하는 내용들을 이해하실 수 있습니다. 특히 TensorRT의 개발 언어(C++/Python), FP16/INT8등 Low Precision 지원 문제, RNN에 대한 내용 등 적용과정에서 고려되는 내용에 대한 팁들이 제공될 것입니다.
As organizations undertake data-driven digital transformation, they turn to artificial intelligence and deep learning for competitive advantage. AI success depends on the ability to easily integrate and manage data from diverse sources, and requires a solution that can deliver the performance and scale to handle the most demanding AI/DL applications. This session introduces the NetApp ONTAP AI reference architecture for deep learning, powered by NVIDIA, and provides an overview of NetApp’s product suite designed to simplify, accelerate and intelligently manage the flow of data from edge to core to cloud.
본 세션에서는 효과적인 GPU 기반의 inference platform을 구축할 수 있는 방안을 설명합니다. Inference에 최적화된Tesla T4의 HW 특징 및 성능 지표를 소개하며, 이를 기반으로 하는 TensorRT5.0의 새롭게 업데이트된 내용을 전달합니다. 마지막으로 TensorRT Inference server를 사용하여 deep 기반의 production deploy cluster를 효과적으로 구축하는 방안을 설명하며, 이를 위해 client SDK sample code 및 Kubernetes 연동에 대한 내용도 설명합니다.
최근의 복잡한 Machine Learning 및 Artificial Intelligence 알고리즘 개발을 위해서는 모델을 학습하기 위한 GPU가 필수이며, 많은 기업 및 기관에서 GPU server cluster를 활용하고 있다. 고가의 GPU 장비를 효율적으로 활용하기 위해서는 자원을 효율적으로 분배하고 공유 할 수 있는 Cloud 환경이 필수적이다. 특히, Public Colud를 사용하지 못하는 환경에서는 Private GPU Cloud 구축이 필수적이나 이를 구축하는 것은 많은 시간과 리소스를 필요로 한다. Scale은 이런 GPU Cloud 환경 구축을 손쉽게 해주고 개발자가 개발에 집중 할 수 있는 환경을 제공해 준다. 본 발표에서는 SKT에서 개발하여 AI 개발 인프라에서 사용하고 있는 GPU Cloud 시스템인 SCALE을 소개한다.
vSphere 환경에서 GPU를 효과적으로 공유하여 사용할 수 있는 방법을 다루고 GPU가 연결된 VM의 일시중지, 다시시작과 같은 기능에 대해서 설명드립니다.
NAVER Cloud Platform for A.I 에서는 네이버 클라우드 플랫폼에 대한 간단한 소개와 A.I를 위해 네이버클라우드플랫폼에서 준비한 다양한 상품들을 소개합니다. GPU 서버, 베어메탈, HPC등 인프라적인 요소와 파파고, Clova Speech Recognition, Clova Speech Synthesis와 같은 서비스 요소에 대해서 설명하고 그 중 다양한 디바이스에서 활용 가능한 챗봇 서비스의 시연(Text input > Text output, Voice Input > Voice Output) 을 통해 A.I를 시작하는 사용자가 클라우드를 통해 보다 쉽고 간편하게 A.I를 활용할 수 있도록 소개할 예정입니다.
This session will explore the objectives for building the DGX-2, along with the inspired, innovative technology and architecture used to eliminate traditional bottlenecks and to enable multi-GPU training at unprecedented scale. This talk led by the DGX product team will present on the following topics:
- the need for GPU-Ready Infrastructure from cooling, storage, compute, and networking
- the innovation and architecture found in NVSwitch, which enables the AI network fabric for the DGX-2 platform
- the design challenges and hardware architecture employed to enable 16 V100's to operate as one
- feature by feature walkthrough highlighting the most important innovations that accelerate deep learning workflow and training performance
- use cases that were previously unaddressable on a GPU platform, now solved with DGX-2.
- DGX systems reference architecture with storage partners
NVIDIA가 업계 최초의 Virtual GPU 솔루션을 시장에 소개한 지 5년이 지났습니다. 꾸준한 개발 및 연구를 통해 GPU를 가상화하고 공유하여 사용하는 혁신적인 개념은 이제 GPU 가속이 필요한 모든 분야에 적용할 수 있습니다. Virtual GPU를 통해 AI/DL 업무를 진정한 의미의 가상화 환경으로 진화시킬 수 있는 방안을 소개하고자 합니다.
DLI 워크샵 참가 준비물
워크샵 참석하기 전에 반드시 개인 노트북(Windows, Mac, Linux/Wifi/크롬 브라우저)을 지참하시기 바랍니다.
DLI 워크샵 참가 사전 안내 사항
워크샵 참가 전에 아래 단계들을 완료하시기 바랍니다.