3일에 걸쳐 진행되는 이번 Deep Learning Day 2017은 가장 최신 딥 러닝 기술 트렌드와 함께 다양한 비즈니스에서 이를 어떻게 적용하고 있는지 그 사례들을 소개하는 컨퍼런스와 GPU 기반 최신 딥 러닝 프레임워크를 활용하여 실제 실습을 해보는 Deep Learning Institute 세션으로 나누어 진행됩니다. 각 일자 별 자세한 세션 내용들은 아래에서 확인하세요.
DEEP LEARNING DAY 2017은 다양한 기술 세션 뿐만 아니라 실제로 딥 러닝 기술이 필요한 이러한 분야에서 어떻게 딥 뉴럴 네트워크를 설계하고 훈련하며 배포하는지 핸즈온 교육도 함께 진행됩니다. 11월 1일에 열리는 이번 DEEP LEARNING INSTITUTE에 대한 자세한 교육 내용은 아래에서 확인하실 수 있습니다. 컨퍼런스에 비해 매우 한정된 인원만 참석할 수 있어 조기 마감이 예상되오니 지금 바로 등록하시기 바랍니다.
일시 2017년 11월 1일(수) 장소 서울 삼성동 코엑스 300호 참가비 1인 150,000원(부가세 별도)
본 핸즈온 세션 참여를 위해서는 본인의 노트북(Windows, Mac, Linux/Wifi/크롬 브라우저)을 소지하고 오셔야 하며, 아래 사전 세팅 사항을 완료하셔야 합니다.
사전 세팅 사항
상세 가이드 다운로드 하기
헬스케어 분야에서의 딥 러닝 기술은 현재 의료 영상 분석 후 병을 진단하거나 기존의 데이터를 학습해 질병 발병 여부를 미리 예측하는 등 점점 그 활용도와 중요성이 커지고 있습니다. 이번 Deep Learning Institute는 특히 헬스케어 분야에 초점을 두고 실제 의료 데이터를 활용하여 딥 러닝을 실습할 예정입니다.
참고로 본 교육 커리큘럼상, 영어로 진행되오니 본 교육 내용 상 참조하시어 등록하시기 바랍니다. 자세한 교육 내용은 확인해 주세요!
일시 2017년 11월 2일(목) 장소
서울 삼성동 코엑스 300호 참가비
1인 500,000원(부가세 별도) Early Bird 할인(10월 25일까지): 300,000원
인공지능 로봇 연구는 인공지능 초기인 1960년대에 일찌기 시작되었다. 그러나 로봇 하드웨어와 컴퓨팅 파워의 부족으로 그 발전이 매우 느렸다. 1990년대 중반이 되어서야 대학교에 이동로봇 연구실들이 생겨나면서 로봇 시각과 자율 이동 연구가 본격적으로 시작하였다. 2000년대에는 Nao, PR2 등의 연구용 휴머노이드 로봇들이 등장하고, ROS 로봇운영체제 오픈소스 커뮤니티가 생기면서 소프트웨어가 빠르게 발전하기 시작하였다. 또한 최근 들어, 클라우드 컴퓨팅과 4G 통신 환경이 발전하고, 빅데이터와 GPU에 의해 딥러닝 기술이 빠르게 발전하면서 인공지능 로봇의 시대가 오고 있다. 본 발표에서는 인공지능 로봇의 최신 산업화 및 응용 사례들을 살펴보고 그 배경이 되는 딥러닝 인공지능 기술을 분석한다. 앞으로 제4차 산업혁명 시대에 인공지능 로봇이 가져올 임팩트와 인공지능의 미래에 대해서 논의한다. Artificial intelligence robots have been studied since the early days of artificial intelligence in the 1960s. However, the progress has been very slow due to the lack of robot hardware and computing power. It is only in the late 1990s that mobile robot research labs are established to study computer vision and robotic navigation. In the 2000s, commercially-available humanoid robots, such as Nao and PR2, spurred AI research for mobile robots and the open source activities for robot operating systems (ROS). Recently, the AI robots come of age powered by the rapid advancement of deep-learning AI technologies based on big data and GPU-based parallel processing. This talk will outline the recent trends of AI robots in industry and applications and the underlying deep-learning AI technologies. We also discuss the impact of AI robots on the 4th industrial revolution and on the future of AI.
ICT Big Bang이 여러 차례 일어나 왔고, 다가올 4차 산업혁명에서 AI는 중요한 역할을 하고 있음. 이러한, AI의 Big Bang을 위한 통신사업자의 Infrastructure는 중요한 역할을 할 것이다. 또한 AI Big Bang의 시대에서는 Network의 역할은 지금과는 다른 형태로 변해야 하며, Network Storage와 Computing power가 local에 있는 것과 동일한 성능을 발휘할 수 있도록 속도가 올라가야 한다. 이를 위해 통신사업자의 Network는 바뀌고 있고, 5G가 이러한 역할을 해줄 것임. 또한, 4차 산업혁명에서의 cloud는 GiGA-Connected Intelligence가 되어야 하며, Data의 Intelligent Eco도 중요한 축이 되어야 한다. 이러한 Infrastructure 기반에서 생태계의 확장과 상호 협업이 AI Big Bang 시대를 이끌 것이다.
KSB융합연구단는 머신러닝/딥러닝 모델을 이용한 다양한 도메인의 지능서비스를 쉽게 만들어서 서비스를 할 수 있도록 하는 지식융합 인공지능 프레임워크를 개발 중에 있다. 본 발표에서는 현재 개발 중인 지식융합인공지능 프레임워크를 소개한다. The KSB Convergence Research Department of Korea Electronics and Telecommunications Research Institute is developing a knowledge convergence artificial intelligence framework that allows users to easily create and deploy intelligent services of various domains using a machine learning and deep learning model. This presentation introduces the artificial intelligence framework that is currently under development.
본 발표에서는
등을 다루게 된다. This talk includes the followings;
데이터가 많은 경우 최근접 이웃 분류법(nearest neighbor classification)에 대한 이론적 연구는 T. Cover and P. Hart로부터 시작된 1960대의 연구로부터 시작한다. 이들 연구 가운데 무한개의 데이터에 대한 점근적 에러와 기저확률밀도함수와의 관계는 오늘날 최근접 이웃 분류법을 많은 데이터 상황에서 다양한 기계학습 알고리즘을 만드는 데 사용할 수 있도록 한다. 이 발표에서는 최근에 NIPS, Neural Computation, Transactions on IEEE Pattern Analysis and Machine Intelligence 등에 발표된 최근접 이웃법과 정보이론과 관련된 다양한 기계학습 알고리즘에서 많은 데이터와 병렬처리를 통해 가속회돤 방법을 가지고 만들어진 최근접 이웃법을 이용한 새로운 종류의 알고리즘들을 소개한다. The theoretical study of nearest neighbors goes back to T. Cover and P. Hart’s work in the 1960s which is based on the asymptotic behavior of nearest neighbor classification with many data. Their best-known contribution is the upper bound of the error in the asymptotic situation, which is twice the Bayes error, as well as the idea of connecting nearest neighbor information to the underlying probability density functions. More recently, studies on nearest neighbors have developed various useful techniques for many contemporary machine learning algorithms showing how nearest neighbors can be better used from the theoretical perspective. In this talk, some of our works will be presented utilizing recent theoretical findings on nearest neighbors. First, metric learning methods will be introduced to minimize the finite sampling effect that produces a bias from the result in the asymptotic situation. Applications include the nearest neighbor classification and the estimation of various information-theoretic measures. Second, the metric learning in a finite sample situation is extended to different nonparametric methods such as Nadaraya-Watson regression. In particular, we show that the mean square error can be effectively reduced with the proof that a metric exists with zero bias for jointly Gaussian data. All of the work in this talk is based on the analysis which assumes many data, and often the presented results only appear in tasks with large numbers of data. The results in this talk will help understand the behavior of nearest neighbors when treating large scale data.
Opensource DL frameworks, focusing on TensorFlow™, will harness the performance of Volta to deliver dramatically faster training times and higher multi-node training performance, since the new NVIDIA® Tesla® V100 accelerator incorporates the powerful new Volta™ GV100 GPU. In particular, Volta-optimized versions of GPU accelerated SDKs such as CUDA 9 toolkit, cuDNN 7, cuBLAS, fast multi-GPU collectives (called NCCL v2.0) and NVIDA driver leverage the new features of the Volta GV100 architecture to deliver higher performance for both deep learning inference and training.
태풍/홍수/침수 등의 기상 이벤트 예측 연구는 WRF, UM, MPAS 등과 같은 수치 모델을 활용한 수퍼컴퓨터(HPC) 시뮬레이션을 기반으로 수행되어 왔다. 이러한 수치 모델 기반의 연구에서 벗어나 최근 다양한 분야에서 혁신을 보이고 있는 딥러닝 기술을 적용한 기상 이벤트 연구 사례를 소개하고 향후 발전 방향 및 발전 가능성을 살펴본다. 특히, 기상 레이더 영상이나 인공위성 영상 등과 같은 기상 센싱 정보를 분석하여 태풍 경로 및 강우량 예측 등의 연구 내용을 소개하고, 일반적인 영상 처리와 다른 기상 영상 처리의 특징 등을 짚어본다. Prediction of meteorological events such as typhoons, floods, and innudations has been based on supercomputer (HPC) simulations using numerical models such as WRF, UM, and MPAS. Beyond this numerical approaches, this study introduces the case study of weather phenomenon applying deep learning technology which has been recently innovated in various fields. Especially, we analyze the weather sensing information such as weather radar images and satellite images to predict typhoon track and rainfall amount, and discuss characteristics of general image processing and other weather image processing.
인공지능 기술의 빠른 발전은 이미 여러 분야에 영향을 미치기 시작했다. 의료는 그 대표적인 분야 중의 하나이며, 이제 인공지능이 의료의 미래에 큰 영향을 미치리라는 전제 자체를 부인하는 사람은 없다. 특히, 딥 러닝 기술의 발전은 이미 다양한 의료 분야에서 유의미한 결과를 내어놓고 있으며, 일부는 전문의의 역량을 능가하는 결과를 내어놓고 있다. 이번 강의에서는 다양한 의료 인공지능 기술이 현재 어디까지 발전해있는지를 리뷰하고, 인간 의사 대체 가능 여부, 책임 소재, 검증 및 규제 방안 등 의료 인공지능과 관련하여 파생되는 주요 이슈들에 대해서 논의한다. The rapid development of artificial intelligence technology has already begun to affect various fields. Medicine is one of the representative fields, and no one denies the premise that artificial intelligence will have a major impact on the future of medicine. The development of deep learning technology has already produced meaningful results in a variety of healthcare settings, some of which are beyond the capabilities of human medical doctors. In this lecture, we will review the progress of various medical artificial intelligence technologies. Also we will discuss major issues related to medical artificial intelligence such as whether AI would replace human physicians, who would be responsible for the results, and how we regulate and validate the medical artificial intelligence.
인공지능이 신약을 발견할 수 있을까 없을까는 이미 시간 지나간 화두이다. 올해는 신약을 인공지능이 발견해 내는 해이다. 많은 기술적 부분이 가려져 있지만 해당 분야 업체 동향을 살펴보고 스탠다임의 기술적 접근을 소개한다. 스탠다임이 정의한 Artificial Applicable Intelligence 개념과 Artificial Complementary Intelligence 개념이다. GPU 자원을 암묵적으로 자연스럽게 활용한 경우, 명시적으로 노력하여 활용한 경우, ROI를 생각하면 CPU를 활용할 수 밖에 없는 경우로 구분하여 구체적 사례 소개한다. To prove whether AI discovers new drugs is not an issue anymore. This is being proved already. I introduce Standigm's achievements and technology and its competitors'. Standing’s AI is Artificial Applicable Intelligence (AAI) and Artificial Complementary Intelligence (ACI). I also give you cases of manipulating GPU resources in my company.
인공지능에 관한 관심이 뜨겁다. 이런 4차 산업혁명에 편승하고 향후 어떻게 주도해갈 것인가는 우리나라의 생존이 달린 문제이다. 역사적으로 산업화 대열에 늦게 참여한 우리나라에게 4차 산업혁명의 도래는 위기이자 기회가 될 수 있다. 특히 기존의 지능형 기술과는 달리 최근 발전되고 있는 소위 ‘딥러닝’ 기술은 영상, 음성 등 특정 영역에서 인간을 넘어서는 성능을 보여주고 있다. 또한 가장 지적인 게임이라고 일컬어지는 바둑에서 알파고의 약진은 모든 사람들에게 기대를 넘어선 공포를 선사하기도 했다. 의학분야에서도 인공지능기술의 도입에 대한 관심이 뜨겁다. 최근 유수의 해외 저널에서 구글이 개발한 인공지능을 이용해서 안저촬영영상의 당뇨병증을 진단하는 것이 안과전문의와 필적하는 성능을 보인다는 것을 증명하기도 했다. 또 국내에는 모 대학병원이 도입한 미국에서 개발한 전문가 판정보조시스템인 ‘왓슨’에 대한 희망섞인 보도들도 쏟아지고 있다. 필자들도 의료에 이러한 새로운 기술을 도입하고자 적극적인 연구를 진행하고 있고, 이를 통해 인공지능 기술이 미래의 의료의 질을 높이는 혁신적인 기술이 될 것이라고 생각한다. 이러한 변화를 바라보는 반응들은 다양하다. 혹자들은 일부 의사를 대치할 것이라고 예상하기도 하고, 혹자들은 이런 기술이 개발되면 안된다고 목소리를 높이기도 한다. 혁신적인 기술이 소개될 때 마다 두 가지 극단적인 반응을 보이는 사람들을 보게 된다.기술에 대한 과장된 평가로 현 시스템의 장점을 무시하고, 새로운 기술로 교체해야 한다는 ‘기술신봉자’와 새로운 기술의 가진 가능성을 무시하기 때문에 혹은 새로운 기술이 가져올 영향에 대한 공포로 무작정 거부하는 ‘기술파괴자’들이다. 항상 그러하듯이 진실은 그 중간에 있다. 필자는 인공지능 기술의 도입이 이후 의료시스템의 질을 높이고 생산성을 높여 궁극적으로 질병으로 고통 받는 환자에게 큰 도움이 될 것이라고 생각한다. 이를 위해서는 현 시스템의 장단점을 잘 이해하고 있는 의료진과 인공지능 전문가가 머리를 맞대고, 궁극의 목적인 보다 나은 진료를 위해 무슨 기술이 필요한 지를 같이 고민하고 개발해야 한다. 인공지능과 의료 또는 기존의 의료진은 서로 대립하고 있지 않다. 인공지능은 의료진 뿐아니라 기존의 의료를 강화하는 식으로 적용될것이다. 또한, 인공지능 기술을 제대로 활용하기 위해서는 의료진의 적극적인 노력과 고민이 필요하다. 필자들은 왓슨도 그 한계를 잘 이해하는 국내 의료진들이 국내의 진료정보를 통해 학습하여 활용한다면, 많은 도움이 될것이라고 생각한다. 인공지능기술의 적극적인 수용은 중요하다. 하지만, 이에 따른 교육 및 사회 시스템, 그리고 이에 영향을 받는 계층을 지원하는 것 또한 필요할 것이다.
최근 수년간 딥러닝 기술은 영상, 음성, 텍스트 등 다양한 형태의 데이터 분석에서 기존 방법의 성능을 뛰어넘는 결과를 보이며 주목 받아왔으며, 딥러닝 자체의 구조적 확장성 및 유연성, 풍부한 데이터, GPGPU를 이용한 연산 인프라의 지원으로 기존에 불가능하거나 비효율적이었던 새로운 적용 영역으로 확장이 다양한 분야에서 이루어지고 있습니다. 그중에서도 의료데이터 분석을 통한 인공지능 기반의 의료 솔루션은 학계에서나 산업계에서 가장 활발하게 연구개발되고 있으며 딥러닝의 잠재력을 가장 잘 발휘할 수 있는 영역으로 각광받고 있습니다. 본 세션에서는 딥러닝 기반의 의료데이터 분석의 최신 사례들을 소개하고, 뷰노가 개발하고 있는 딥러닝 기반의 의료데이터 분석 플랫폼인 VUNO-Med와 그를 기반으로한 솔루션들을 소개하고자 합니다. The past few years have witnessed fast widespread advances in deep learning for analyzing various forms of unstructured data including images, speech, and texts that reach or even surpass human-level performance. With its flexibility and extensibility combined with abundant data and computational power provided by GPU, deep learning has brought many breakthroughs in many tasks which have been considered impossible or hard to achieve. Among them, medical data analysis has been one of the most active area of research adopting recent advances in deep learning and have shown many successful applications in various clnical tasks. In this talk, recent advances in medical data analysis using deep learning will be introduced. The VUNO-Med, VUNO's medical data analytics plafrom and its real-world use cases will be also introduced as the efforts to bring the potential of deep learning for innovating clinical workflow and supporting clinical decision making.
최근 들어 여러 의료영상분석 과제들에서도 딥러닝 기술은 주목할만한 성과들을 보여주고 있습니다. 가까운 미래에 데이터를 기반으로 개발된 의료영상분석 제품들이 실제 임상환경에서 활용될 수 있을걸로 기대됩니다. 여기서 Lunit이 제품 수준의 모델을 개발하기 위해 지금까지 중요하게 고려한 개발 요소들과 이를 해결해온 과정들을 소개합니다. 그리고 이러한 제품의 확산을 위해 극복해야할 과제들과 중요한 연구 방향들을 공유하고자 합니다. Recent advances of deep learning have achieved remarkable performances in various medical image analysis tasks. In the near future, it is expected that the products for medical image analysis with data-driven approaches will be used in daily clinical practice. In this talk, we take a closer look at the process of developing the product-level analysis models through recent studies as well as the experience in Lunit. We also discuss the challenges in medical images and industries to draw important and pragmatic future research topics.
딥러닝 기술이 영상인식 등에서 주목할만한 성과를 보여주면서, 이를 의료문제의 해결에 이용하고자 하는 시도가 늘고 있다. 중요한 것은 실제 임상에서 필요로 하는 문제를 정의하는 것이고, data-driven 관점에서 이를 해결하기 위하여 충분한 데이터를 수집하는 것이다. 지능정보기술연구원에서 병원들과 협업하며 경험해 본 사례를 바탕으로 의료 인공지능 연구의 실제와 앞으로 나아가야 할 방향에 관한 짧은 소견을 공유하고 토론하고자 한다. Deep learning technology has shown remarkable results in some tests such as image recognition, and further attempts are being made to apply deep learning to medical area. The important thing is to define the problems that are clinical needs and to collect enough data to solve them in a data-driven perspective. Based on the experiences of collaborating with hospitals at the AIRI, I would like to share and discuss about the present and future directions of medical artificial intelligence research.
최근들어 딥러닝 기술은 영상 이해 분야에서 다양한 응용 가능성을 보여주면서 엄청난 성장을 이루고 있다. 상용화 측면에서도 다양한 산업분야에서 결과를 보이고 있는 상황이다. Surveillance 분야에서도 연이어 제품들이 출시되고 있지만, 아직 폭넓게 적용되고 있지는 않다. 본 발표에서는 Surveillance에서의 현재 지능형 분석 기술의 한계에 대해서 분석하고, Traditional computer vision과 딥러닝 기술의 접목을 통한 차세대 영상분석을 case sduty 방식으로 소개한다.
본 발표에서는 Variational Autoencoder, Generative adversarial network 등 심층 생성 모델의 기본적인 컨셉, 응용, 그리고 한계점에 대해 소개한다. 특히 영상 데이터를 처리하기 위한 심층 생성 모델들이 소개될 것이다. 또한 언급된 한계점을 극복하기 위한 방향 또한 논의될 예정이다. We present basic concepts, applications, and limitations for deep generative models such as Variational Autoencoder and Generative adversarial network. Then, the vision applications using the deep generative models will be mainly introduced. Also, directions for tackling the mentioned limitations will also be discussed.
자율주행차를 만들기 위해서 NVIDIA Automotive 플랫폼과 Lidar, Radar, Thermal imaging infrared Camera, Vison Camera, IMU, DGPS 센서들을 구성하는 실제적인 방법과 관련 소프트웨어들에 대해서 알아본다. 그리고 자율주행을 위한 소프트웨어를 구현할 때 Driveworks를 포함해서 필요한 소프트웨어들이 어떤 것들이 있는지에 대해서도 알아본다. We will look at the actual methods and related software that make up the NVIDIA Automotive platform and Lidar, Radar, Thermal imaging infrared camera, Vison camera, IMU, and DGPS sensors to make autonomous vehicles. And we will look at required software including Driveworks when implementing software for autonomous navigation.
음성을 사용한 인간-컴퓨터 인터페이스 (HCI) 가 최근 딥러닝 기술의 비약적인 발전으로 인해 크게 각광을 받고 있다. 음성을 사용한 HCI 는 음성 인식 뿐 아니라 음성 신호의 존재 유무 및 어느 화자로부터 음성 명령이 오는지를 판별할 수 있어야 한다. 또한 근거리 뿐 아니라 원거리에서 발생하는 음성 명령도 인식해야 하므로 배경 잡음 및 잔향의 영향을 심하게 받으며 동일한 공간에 다수의 화자가 발생하는 등의 다양한 종류의 상황을 극복해야 하므로 널리 사용되기 위해서는 아직 많은 기술의 발전이 요구된다. 본 강연에서는 이러한 음성 인식을 위한 음향 관련 기술을 간략하게 소개하고, 광의적으로 음성 인식 뿐 아니라 인공 지능 기반 음향 센싱에 대한 현재 기술 및 향후 전망에 대해서 다룰 예정이다. Thanks to the recent advancement of deep learning technologies, speech-based human computer interface (HCI) is regaining its popularity for wider range of applications. In addition to automatic speech recognition (ASR), speech-based HCI requires the determination of the speech presence as well as the speaker’s location and identity. In order to be adopted for even wider range of applications, it should be able to capture far-field speech signals that is prone to the degradations caused by background noise and reverberation. Furthermore, it should also be able to distinguish individual speakers when there exist multiple competing speakers. This talk first presents various technologies for acoustic signal processing for ASR, followed by design strategy of using deep neural networks for acoustic sensing and its applications that can greatly benefit from artificial intelligence.
RINO 관제시스템은 CUDA 영상처리 기술을 적용하여 서버 한대에서 지원 가능한 동시 표출 영상의 최대치를 확장시켜줍니다. 공인기관 시험성적서 발급기준 최대 180CH의 영상을 동시 표출 지원합니다. (FULL HD 1920*1080 30FPS이상 10Mbps 영상 기준)
The RINO control system uses CUDA image processing technology to expand the maximum number of simultaneously displayed images that can be supported by one server. Issuance standard of test report of authorized institution Supports simultaneous display of images up to 180CH.(it was tested with FullHD 1920x1080 30fps Contents)
자율주행차를 위해서 필요한 Deep learning network들을 위해 Data gathering에서 부터 training 및 inference까지 어떻게 적용해야하는지에 대해 전체적인 부분에 대해서 발표합니다. How deep neural networks have changed the automotive vehicle landscape.Explain whole DNN workflow for automotive vehicle from data gathering to inference.
자율주행관련 글로벌 산업 동향을 살펴 보고 ICT기업들의 변화 움직임을 조망한다. 자율주행은 ICT의 핵심 기술이 융합되는 영역으로 주요 기술을 분석하고 상호 결합하는 방안을 제시한다. SK텔레콤은 국내 ICT 선두 업체로서 자율주행 기술 개발 방향과 엔비디아와 협력 사례를 소개하고자 한다. Regarding autonomous driving technologies, major activities of global players will be overviewed to find key insight. Autonomous driving is a converged area of ICT key components and will be evolved in the process of interaction and combination. SK Telecom, as a leading ICT company in Korea, is actively developing autonomous driving technologies with NVIDIA.
ADAS 및 자율주행을 위한 Deep Learning 기반 물체 검출 소프트웨어 SVNet을 소개한다. SVNet은 기상악조건 및 저광량에 강하고 작은 물체와 일부가 가려진 물체를 검출하는 데에 탁월한 성능을 발휘한다. SVNet의 구조를 간략하게 설명하고 이를 Tegra X2와 Drive PX2 등의 보드에서 실시간에 동작시키기 위해 최적화 하는 과정에서 NVIDIA의 라이브러리 및 프레임워크를 사용한 경험을 공유한다. We'll introduce SVNet, a deep-learning-based object detection software for ADAS and autonomous driving. SVNet is robust for bad weather/lighting conditions, small object sizes, and occlusion. We'll introduce the structure of SVNet briefly and share the experience of using libraries and frameworks of NVIDIA to achieve significant enhancements to the performance of SVNet on Tegra X2 and Drive PX2.
㈜프로센스는 자율주행차 시장진출을 목표로 고정도 ADAS(Advanced Driver Assistance System) 솔루션과 딥러닝 기반 차량용 솔루션을 개발하는 스타트업입니다. 해외와 한국의 컴퓨터 비전 전문가 집단과 공동연구개발 프로젝트를 추진하고 있으며 현재 집중하고 있는 영역은 다음과 같습니다. [1] 고정도 긴급제동브레이크(AEB), 스마트크루즈(SCC), 차선유지 보조시스템(LKAS) 알고리즘 개발 [2] 딥러닝 기반 센서융합(영상, 레이더, 라이다, 초음파) 플랫폼 개발 Prosense is a startup which develops high precision ADAS (Advanced Driver Assistance System) and deep learning based vehicle solutions to penetrate into the future market of self-driving cars. We are pursuing joint developments with both inside and outside Korea computer vision experts and focusing on following areas; [1] High accuracy algorithms for Autonomous Emergency Brake (AEB), Smart Cruise Control (SCC), Lane Keeping Assist System (LKAS). [2] Deep Learning based sensor fusion (image, radar, lidar, ultrasonic) software platform.
본 발표에서는 크게 3가지 주제에 대해 발표한다. 첫번째는, NVIDIA GPU를 자율주행자동차에 사용한 내용인데, 특히 일반 테스크탑 방식의 서버를 자율주행자동차에 탑재하여 사용한 방식과, NVIDIA Drive PX2를 이용하여 안정적이고 효과적인 인터페이스를 구축한 것을 비교하여 설명한다. 두번째 주제는 이 시스템을 이용하여 Conventional한 방식의 자율주행 시스템을 구축한 내용에 대해 발표하며, 마지막 주제는 NVIDIA의 End-to-End learning을 적용하여 자율주행을 수행한 내용에 대해 발표한다. In this presentation, three major topics are presented. The first is the use of NVIDIA GPU in autonomous vehicles, especially comparing the way using a typical desktop-type server and a stable and effective interface built using the NVIDIA Drive PX2. The second topic is the presentation about the conventional autonomous driving algorithm using these systems, and the final topic is autonomous driving technique using end-to-end learning.
Docker is a popular container infrastructure which allows programs and large software frameworks to be packaged (i.e. containerized) and distributed as a single preconfigured image – alleviating the need for a complex installation and configuration process on the local host. Together with the nvidia-docker plugin, which exposes the GPU hardware on the host inside of the container, it is possible to run production grade deep learning workflows with considerably reduced host configuration and administration. In this lab we show you how to work with Docker images and manage the container lifecycle. We demonstrate how to access images on the public Docker image registry DockerHub for maximum reuse in creating composable lightweight containers. Finally, we give step-by-step examples of deep learning training in both TensorFlow and MXNet using nvidia-docker, and provide instructions for creating your own local registry for hosting Docker images on a private network. The lab concludes with a brief discussion on next steps, such as scaling container workflows for the datacenter, available tools in the Docker ecosystem and Cloud container services.
Learn how to leverage deep neural networks (DNN) within the deep learning workflow to solve a real-world image classification problem using NVIDIA DIGITS. You will walk through the process of data preparation, model definition, model training and troubleshooting. You will use validation data to test and try different strategies for improving model performance using GPUs. On completion of this lab, you will be able to use DIGITS to train a DNN on your own image classification application.
This label explores various approaches to the problem of semantic image segmentation, which is a generalization of image classification where class predictions are made at the pixel level. In this lab we will use the Sunnybrook Cardiac Data to train a neural network to learn to locate the left ventricle on MRI images. On completion of this lab, you will understand how to use popular image classification neural networks for semantic segmentation, you will learn how to extend Caffe with custom Python layers, you will become familiar with the concept of transfer learning and you will get to train two neural networks from the family of Fully Convolutional Networks (FCN).
This lab will introduce three approaches for neural network deployment. The first approach teaches you to use inference functionality directly within a deep learning framework (NVIDIA DIGITS and Caffe). The second approach teaches you how to integrate inference within a custom application by using a deep learning framework API (Caffe, through its Python API). The final approach teaches you to use TensorRT, which will automatically create an optimized inference run-time from a trained Caffe model and network description file. As you explore these approaches, you will learn about the role of batch size in inference performance, as well as various optimizations that can be made in the inference process. You will also explore inference for a variety of different DNN architectures trained in other DLI labs.
This lab explores various approaches to the problem of semantic image segmentation, which is a generalization of image classification where class predictions are made at the pixel level. We use the Sunnybrook Cardiac Data to train a neural network to learn to locate the left ventricle on MRI images. In this lab, you will learn how to use popular image classification neural networks for semantic segmentation, how to extend Caffe with custom Python layers, become familiar with the concept of transfer learning and train two Fully Convolutional Networks (FCNs).
One important area of current research is the use of deep neural networks to classify or forecast time-series data. Time-series data is produced in large volumes from sensors in a variety of application domains including Internet of Things (IoT), cyber security, data center management and medical patient care. In this lab, you will learn how to create training and testing datasets using electronic health records in HDF5 (hierarchical data format version five) and prepare datasets for use with recurrent neural networks (RNNs), which allows modeling of very complex data sequences. You will then construct a long-short term memory model (LSTM), a specific RNN architecture, using the Keras library running on top of Theano to evaluate model performance against baseline data.
Thanks to work being performed at Mayo Clinic, approaches using deep learning techniques to detect Radiomics from MRI imaging can lead to more effective treatments and yield better health outcomes for patients with brain tumors. Radiogenomics, specifically Imaging Genomics, refers to the correlation between cancer imaging features and gene expression. Imaging Genomics (Radiomics) can be used to create biomarkers that identify the genomics of a disease without the use of an invasive biopsy. The focus of this lab is detection of the 1p19q co-deletion biomarker using deep learning - specifically convolutional neural networks – using Keras and TensorFlow. What is remarkable about this research and lab is the novelty and promising results of utilizing deep learning to predict Radiomics.