Presented By
GTCx LogoMenu
Presented by


  • David B. Kirk

    NVIDIA Fellow

    그래픽 기술 분야의 세계적인 권위자인 David B. Kirk는 1997년부터 2009년까지 NVIDIA의 수석 과학자를 역임하면서 그래픽 아키텍처와 기술 개발을 주도하였다. 기존 소비자 시장에 고성능 컴퓨터 그래픽 시스템을 가져오며 현재 NVIDIA GPU의 토대를 닦은 장본인이기도 하다.

    매사추세츠 공과대학교 기계 공학 학사 및 석사, 캘리포니아 공과대학교 컴퓨터 공학 석사 및 박사 학위를 취득한 David B. Kirk는 컴퓨터 아키텍처, 병렬 프로그래밍 시스템, 상호 네트워크, 고성능 회로 설계 연구 등을 주요 연구 분야로 다룬다.

    또한 그는 그래픽 디자인 분야에서 60개 이상의 특허를 보유하고 있는 발명가이기도 하며, 그래픽 기술 연구와 관련하여 50개 이상의 논문을 발표하는 등 학계에서도 왕성한 활동을 펼치고 있다.



  • 최진성 전무

    SK텔레콤 종합기술원장

    현재 SK 텔레콤 종합기술원장(CTO, 최고기술경영자)을 맡고 있는 최진성 전무는 2012년 기술 전략 담당 총괄 책임자이자 부사장으로 SK 텔레콤에 합류했다. 그는 빠르게 진화하는 모바일 시장에서 기술 리더십을 확보 하기 위해 기업의 기술 로드맵 및 전략을 구축하고 있다.

    국내 이동통신 업계에서 20 년 이상의 경험을 보유한 베테랑이기도한 그는  SK 텔레콤에 입사하기 전, 그는 LG 전자에서 이동통신 사업부와 모바일 핵심 기술 연구소의 총괄 부사장, 차세대 통신 연구소의 상무 이사 및 총괄 책임자 등 다양한 주요 직책을 역임했다.

    서울대학교 제어계측공학과를 졸업했으며, 서던 캘리포니아 대학교에서 컴퓨터 공학 석사 학위 및 전기 공학 박사 학위를 취득했다.



  • 최승진 교수

    포항공과대학교 컴퓨터 과학/공학교수

    서울대학교 전기공학부에서 학사 및 석사 학위를 각각 1987년, 1989년 취득한 최승진 교수는 그 후 1990년 8월부터 1996년 8월까지 노틀담 대학교(ND)의 이미지 및 신호 분석 연구소(LISA)에서 근무하며 1996년 전기공학 박사 학위를 취득한 바 있다.

    현재 그는 머신 러닝 분야에 몸 담고 있으며, 그 중에서도 확률 모델, 그래픽 모델, 커널 머신, 베이지안 학습 등 흥미로운 분야들을 포함하는 통계 머신 러닝의 발전에 몰두하고 있다. 또한 뇌-컴퓨터 인터페이스, 패턴 분류, 영상 의학, 컴퓨터 기반 청각/시각, 생물정보학 등 머신 러닝을 응용 가능한 다양한 분야의 과학 기술에 노력을 기울이고 있다.

    그의 연구 분야는 기본적으로 뇌-컴퓨터 인터페이스, 패턴 분류, 영상 의학, 컴퓨터 기반 청각/시각, 생물정보학 등 머신 러닝의 응용이다


GTCx KOREA 2016 아젠다

딥 러닝 트레이닝 랩 (DLI Training Lab) (10월 6일)

시간

프로그램

10:00 - 10:30

참가자 등록

10:30 - 12:00

물체 감지(Object Detection)를 위한 딥 러닝 (End-to-end Series Part 1)

류현곤 부장 NVIDIA KOREA

딥 러닝이 화상분류(image classification)에 어떻게 적용되는지에 대한 기본적 이해를 바탕으로 본 랩(Lab)에서는 대상물체가 이미지 안에 존재함을 감지하고 이미지 내 그 정확한 위치를 인식하는 보다 어려운 과제를 해결하기 위한 몇 가지 접근 방식을 다룬다. 이와 관련해 심층신경망(DNN) 훈련을 위한 수많은 방식이 등장해왔고, 모델 훈련 시간, 모델 확성 및 배치시의 감지 속도 등의 면에서 각기 장단점을 보여주었다. 본 랩의 수강자는 이와 같은 방식들의 상대적 장점을 배우게 되고, NVIDIA DIGITS를 이용해 훈련된 최첨단 물체 감지 네트워크를 까다로운 실제 데이터세트에 적용해보게 된다.

12:00 - 13:00

Lunch

13:00 - 14:30

화상 분할(Image Segmentation)을 위한 딥 러닝

한재근 과장 NVIDIA KOREA

이미지 내 개별 물체 감지를 뛰어넘어 이미지를 관심 영역 단위로 분할할 수 있어야 하는 다양한 중요 어플리케이션들이 있다. 예를 들어 의료 영상 분석에서는 조직, 혈액, 또는 비정상세포의 타입별로 픽셀을 분리해 특정 장기를 분리할 수 있어야 한다. 본 랩에서는 텐서플로(TensorFlow) 딥러닝 프레임워크와 의학영상 데이터세트를 이용해 영상 분할 네트워크를 훈련하고 평가해 본다.

14:30 - 14:40

Break

14:40 - 16:10

의료 영상 분석을 위한 딥 러닝

한재근 과장 NVIDIA KOREA

나선형 신경망(CNN)은 표준 RGB 카메라 화상만큼이나 비시각적 이미지 유형을 포함하는 시각 인식 작업에 효과적이며, 이는 이미 입증된 사실이다. 이러한 기능을 의료 영상 분석에 적용해 병증 진단에 도움이 되는 단서들을 찾을 수 있다. 의료 영상 분석에서는 CT 스캔, MRI 등 이온화 및 비이온화 화상 처리 이외에도 부피 측정 및 시간적 요소까지 고려한 보다 높은 차원수의 화상까지 처리해야 한다. 본 랩에서는 MXNet 딥 러닝 프레임워크를 이용, 부피 측정 MRI 데이터의 시계열 분석을 통해 인간 심장의 죄심실 부피를 추론하도록 CNN을 훈련시킨다. 표준 2D CNN을 확장해 이처럼 보다 복잡한 데이터에 적용하고, 화상 분류 대신에 직접적으로 심실 부피를 예측하는 방법에 대해 학습할 것이다. 표준 Python API 이외에도 의학 연구 관련 중요한 데이터 과학 플랫폼인 R을 통해 MXNet을 사용하는 방법에 대해서도 배우게 된다.

16:10 - 16:20

Break

16:20 - 17:50

딥 러닝 네트워크 배치 (End-to-end Series Part 2)

류현곤 부장 NVIDIA KOREA

딥 러닝 소프트웨어 프레임워크는 GPU 가속을 이용해 심층신경망(DNN)을 훈련시킨다. 그렇다면 훈련이 끝난 DNN은 어떻게 되는가? 훈련된 DNN을 새로운 테스트 데이터에 적용하는 프로세스를 흔히 ‘추론(inference)’ 또는 ‘배치(deployment)’라고 부른다. 본 랩에서는 추론을 위해 훈련된 DNN을 배치하는 3가지 다른 방식을 테스트 해본다. 첫 번째 방식인 딥 러닝 프레임워크는 DIGITS와 Caffe 내 추론 기능을 직접적으로 사용한다. 두 번째로 딥 러닝 프레임워크 API 역시 Caffe를 이용하되, Python API를 통해 커스텀 어플리케이션 내 추론 기능을 통합하는 방식이다. 마지막으로 NVIDIA GPU Inference Engine(GIE)을 이용하는 방식이 있다. GIE는 훈련된 Caffe 모델과 네트워크 기술(network description) 파일에서 최적화된 추론 런타임을 자동으로 생성한다. 추론 성능과 관련한 배치 사이즈(batch size)의 역할 뿐 아니라, 추론 과정에 적용 가능한 최적화 방법에 대해서도 배울 수 있다. 더불어 다른 DLI 랩에서 훈련된 다양한 DNN 아키텍처의 추론 또한 탐구하게 될 것이다.

17:50

Training Labs Close

컨퍼런스 (10월 7일)

시간

프로그램

09:00 - 09:15

환영사

이용덕 지사장 NVIDIA

인공지능과 딥 러닝 분야의 발전을 선도하고 있는 NVIDIA GPU 컴퓨팅 기술은 오늘 날 전 산업군에 걸쳐 수많은 기업들에게 영향을 끼치고 있다. NVIDIA Korea 이용덕 지사장의 환영사와 함께 시작되는 GTCx Korea 2016은 딥 러닝 뿐만 아니라 자율주행 자동차, 가상현실, 가속 컴퓨팅 등 다양한 첨단 기술의 발전양상을 집중 조명할 예정이다.

09:15 - 10:15

The Deep Learning AI Revolution 발표 자료 보기

David B. Kirk NVIDIA

우리는 지금 빅데이터의 시대에 살고 있다. 그러나 데이터에 대한 분석과 이해, 의미가 부여되지 않는다면 이는 단순한 정보이자, 잡음에 불과할 뿐이다. 딥 러닝은 어떠한 규모의 컴퓨터에서라도 많은 양의 데이터를 학습하고, 새로운 데이터에서 유의미한 결과를 추출할 수 있는 인공지능의 한 형태이다. 오늘 날 GPU 컴퓨팅은 이 같이 막대한 양의 연산 처리를 요하는 딥 러닝 기술을 혁신적으로 발전시키고 있고 이로 인해 보다 통찰력 있는 분석이 가능해졌다. 즉, GPU 기반 딥 러닝은 데이터에 그 의미와 가치를 더하는 기술이라 할 수 있다.

We are now in the era of Big Data. But, data is just information and noise, if there is no analysis, understanding, and meaning attached to the data. Deep Learning is a form of artificial intelligence that allows computers of all scales to learn from large amounts of data and extract meaning from new data. The computational requirements of Deep Learning are immense, and GPU computing makes insightful analysis with Deep Learning possible. Deep Learning and GPUs bring meaning and value to data.

10:15 - 11:00

키노트 I: New Era of Information Technology: AI and Autonomous Driving

최진성 종합기술원장 SK Telecom

AI technology is already a key trend. It could be a powerful service itself and could as well be extremely beneficial when combined with other technologies like IoT/Big Data and Connectivity. There will be introductions about 1) SKT’s AI technology developments and services aligned with SKT’s Platform Business strategy and 2) Vision of SKT’s Autonomous Driving with AI technology being a key enabler.

AI는 이미 가장 중요한 기술 트렌드이며, AI는 기술 자체로서도 유용한 서비스를 제공할 수 있지만 IoT/Big Data, Connectivity 등의 기술과 어우러져서 더 많은 가치를 제공할 수 있음. 우선 1)SKT의 Platform Biz 전략과 연계된 AI 기술 개발과 서비스를 소개하고, 2) AI가 주요 enabler로 기능하는 SKT의 Autonomous Driving Vision에 대해 소개하고자 함.

11:00 - 11:45

키노트 II: Modern Deep Learning: Depth, Uncertainty, and Bayes 발표 자료 보기

최승진 교수 포항공과대학교

Deep learning has made a great success and enjoyed its popularity over the last decade since its resurgence. In this talk, I will discuss three important issues in modern deep learning: (1) the depth of deep hierarchy; (2) uncertainty in either stochastic hidden nodes or in weights of neural networks; (3) a happy marriage between probabilistic models and deep learning. After introducing recent work on the first two issues, I will spend most of time emphasizing the third issue on deep directed generative models.

  • Deep Learning I

    13:00 - 13:30

    Deep Learning based Vision-to-Language Applications: Captioning of Photo streams, Videos, and Online posts 발표 자료 보기

    김건희 교수 서울대학교

    Recently there has been a hike of interest in leveraging deep learning techniques to jointly understand visual data and natural text in the research of computer vision and machine learning. In this talk, I will introduce three projects of our research toward this direction. First, I will introduce an approach for generating a sequence of sentences for a photo stream using a novel multimodal neural networks. Next, I will discuss a neural network model that improves the performance of video captioning by benefiting from the supervision of explicit human gaze labels. Finally, I will present a memory network model that performs three tasks of post automation for a given picture, including hashtag prediction, post generation, and commenting.

    13:30 - 14:00

    자사 개발 서비스를 통해 본, GPU 및 오픈 소스 딥러닝 라이브러리를 활용한 향후 인공지능 서비스의 가능성에 대하여 발표 자료 보기

    김경호 대표 씨사이드

    인공지능은 지금 시대에 있어서, 제4차산업혁명이라고 일컬어 질 정도로, 역사적으로 세 번째의 유행을 맞이 하게 되었다. 1960년대와 1980년대에 관심을 받게 되었을 때, 방대한 양의 학습 데이터를 위한 학습에 소요 되는 처리 시간 및 인간이 기준을 제시하지 않으면 학습이 힘들다는 점이 커다란 과제로 두각 되었으나, 이런한 과제는 2000년도에 들어서서 BigData에 대한 관심과 GPU 악셀레이터 및 오픈소스 딥러닝 라이브러리의 등장으로 그 해결 방안이 제시 되어지고 있으며, 인공신경망에 대한 학술적인 이해가 어느정도 있다면 누구나 쉽게 도전할 수 있는 영역이 되었다. AWS에서 제공 하는 GPU 환경 및 TensorFlow를 이용하여 개발중인 자사 서비스 "C.VIEW"를 통하여, 앞으로의 인공지능 서비스에 대하여 그 가능성을 가늠해 보도록 하자.

    14:00 - 14:15

    Architectures and Programming for A Tightly Bound CPU: GPU World 발표 자료 보기

    허욱 실장 IBM Korea

    How will a more tightly bound CPU and GPU impact your applications and development? Learn how new developments are changing how you program, opening the application aperture, and ushering in the next phase of GPU computing. GPU programming has always been impacted by the challenge of manual data management and the limits of the PCI-E bus. New features including Page Migration Engine are making data management easier. Now, systems with NVLink from CPU to GPU (POWER8 with NVLink) are breaking down the barriers between CPU and GPU even further. These changes have profound impacts on you as a developer, end-user, or administrator of GPU accelerated applications, how systems are architected. We’ll explore how.

    14:15 - 14:30

    Break / Booth & Poster Exhibition

    14:30 - 15:00

    Color transfer using moving least squares with GPU and deep learning based computational color constancy 발표 자료 보기

    김선주 교수 연세대학교

    In this talk, I will talk about two topics that greatly benefited by using the GPU. The first topic is on transferring color between the two images, which uses a data-driven interpolation technique called the moving least squares. This new color transfer framework can be applied for various instances of color transfer such as transferring color between different camera models, camera settings, and illumination conditions, as well as for video color transfers. Next, I will talk about computational color constancy, which refers to the problem of computing the illuminant color so that the images of a scene under varying illumination can be normalized to an image under the canonical illumination. I will introduce a new color constancy algorithm based on deep learning (convolutional neural network) that outperforms all previous work on color constancy.

    15:00 - 15:30

    Less-forgetting learning in deep neural networks 발표 자료 보기

    정희철 박사 KAIST

    Catastrophic forgetting 문제는 deep neural network가 이전에 학습했던 정보를 잃어버리는 문제이다. 가령 이미지넷 데이터셋으로 학습된 네트워크를 fine-tuning 하여 새로운 데이터셋으로 학습시킬때 기존 이미지넷 데이터에 대한 인식률 저하 문제가 발생한다. 이러한 한계때문에 deep neural network의 점진적 학습이 어려우며, 인식 성능의 저하를 야기한다. 본 발표에서는 이러한 문제점에 대해 다루며 이를 극복하기 위한 기법인 less-forgetting 학습방법에 대하여 소개한다.

    15:30 - 15:50

    Break / Booth & Poster Exhibition

    15:50 - 16:20

    Deep Learning을 이용한 Energy Disaggregation 발표 자료 보기

    김지현 박사 부산대학교

    Energy Disaggregation은 소비전력을 분석하여 현재 사용 중인 전자기기들을 분류하는 기술이다. 이 기술의 장점은 전자기기마다 추가적인 센서를 부착할 필요없이 전력분석만으로 동작중인 기기들을 알아내기 때문에 적은 비용으로 서비스 구현이 가능하다는 점이다. 현재까지 진행된 대부분의 연구에서 사용한 분류모델은 Variant FHMM(Factorial Hidden Markov Model) 기반이었으나, 본 발표에서는 Variant FHMM기반 분류 모델의 문제점을 지적하고 Deep Learning(Recurrent Neural Network)기반 분류 모델을 이용한 문제점 개선 방법과, 해당 기술의 응용분야에 대해서 소개한다.

    16:20 - 16:50

    딥러닝 기반 화재 영상 인식 기술 발표 자료 보기

    이원재 선임연구원 한국전자통신연구원

    무인기 기술이 발전하고 무인기 가격이 저렴해지면서 무인기를 재난 관리에 이용하는 사례가 늘고 있다. 본 발표에서는 무인기를 재난 감시 및 상황 대응에 활용하는 기술 개발 과제와, 해당 과제에서 자동화된 화재 감지를 위해 개발된 딥러닝 기반 화재 영상 인식 기술에 대해 소개한다. 딥러닝의 특징, Overfitting을 방지하기 위한 기법들, 다양한 Convolutional Neural Network를 사용한 실험 결과를 다룬다.

  • Deep Learning II

    13:00 - 13:30

    Visual Search at SK Planet

    나상일 매니저 SK Planet

    Deep Learning기술을 SK planet에서 어떻게 응용하였는지 공유하며, 특히 11번가 Visual Search에 적용될 결과물과 함께 소개한다.

    1. Deep Learning in Visual Recognition
    2. Visual Recognition meets large-scale fashion-product retrieval
    3. Demo
    4. Q&A

    13:30 - 14:00

    Deep Learning and Accelerated Analytics: Faster, better results, unique insight 발표 자료 보기

    Marc Hamilton NVIDIA

    Customers are looking to extend the benefits beyond big data with the power of the deep learning and accelerate the insights they can get from data. The NVIDIA® DGX-1™ is the platform of AI Pioneers, which integrates power of deep learning and accelerated analytics together in a single hardware and software system. This session will cover the learnings and successes of real world customer examples for deep learning and accelerated analytics.

    14:00 - 14:15

    급변하는 Heterogeneous computing 환경을 위한 HPE Server Roadmap 발표 자료 보기

    정석원 부장 Hewlett Packard Enterprise

    기존 시스템 환경으로는 대응하기 어려워진 이 기종 환경을 효과적으로 대응하기 위하여 각국 각 사에서 다양한 제품개발이 있다. Hewlett-packard Enterprise 역시 본 시스템 개발에 박차를 가하고 있으며, 기 출시 제품을 비롯 앞으로의 시스템 개발 방향에 대하여 공유한다.

    14:15 - 14:30

    Break / Booth & Poster Exhibition

    14:30 - 15:00

    Azure GPU capabilities and ML possibilities 발표 자료 보기

    백인기 부장 Microsoft Korea

    Session will cover the topics regarding various offerings and scenarios based on the GPU capabilities on Microsoft Azure such as,

    1. Cloud architecture on GPU
    2. Visualization capabilities
    3. GPU compute single/multi machines

    15:00 - 15:30

    인공 지능을 위해 GPGPU 시스템에 우리가 바라는 것 발표 자료 보기

    김진철 매니저 SK Telecom 미래기술원

    인공 지능 구현을 위해 필수적으로 사용되고 있는 기계 학습 알고리즘은 필연적으로 최적화(optimization) 연산 및 대규모의 매트릭스, 텐서 연산이 필요하다. 이런 연산들이 실생활에 필요한 수준으로 적절한 지연 조건을 만족하면서 계산되기 위해 현재 NVIDIA의 GPGPU는 적절한 솔루션으로 각광받고 있다.

    본 발표에서는 현재의 기계 학습 기술이 앞으로 강인공지능으로 발전되기 위해 필요한 병렬 연산 시스템의 조건에 대해 살펴보고, 이러한 병렬 연산 시스템이 구현되기 위해 필요한 컴퓨터 아키텍처 변화 요건을 생각해본다. 이와 관련되어 최근에 일어나고 있는 컴퓨터 시스템 아키텍처 변화의 동향을 같이 살펴보면서 강인공지능으로 가기 위해 우리가 서 있는 곳이 어디인지, 앞으로 어디로 가야하는지 같이 생각해본다. 이러한 변화의 방향이 NVIDIA GPGPU 아키텍처에 어떤 시사점을 주는지도 같이 생각해본다.

    15:30 - 15:50

    Break / Booth & Poster Exhibition

    15:50 - 16:20

    Multimodal Brain MRI-based Feature Extraction and Analysis using Convolutional Neural Network

    성준경 교수 고려대

    In this talk, I will introduce an emerging research area, computational neuroimage analysis, with emphasis on convergence technology between computer science and brain science. Computational neuroimage analysis deal with computational problems arising from quantification of structures and functions of human brains by exploiting non-invasive brain imaging modalities such as magnetic resonance imaging (MRI) and diffusion tensor imaging (DTI). A major challenge in this field is raised by massive high-dimensional non-Euclidean imaging data, which are difficult to analyze using available techniques. In this talk, I will show that computational approaches can provide both effective and efficient solutions to those challenges. As examples of those solutions, I will present some of my recent research projects on computational neuroimage analysis: multimodal MR image registration and convolution neural network-based feature extraction. By combining these techniques, I will finally present several intermediate results on multi-modal brain analysis techniques to study glioblastoma.

    16:20 - 16:50

    Python 3와 TensorFlow 를 이용한 딥러닝 기반의 챗 봇 개발 발표 자료 보기

    신정규 대표 Lablup Inc.

    Chat bot (챗 봇)은 2015년부터 모바일을 중심으로 새로운 사용자 UI로 주목받고 있다. 챗 봇은 상담시 인간-인간 인터랙션을 줄이는 용도부터 온라인 쇼핑 구매에 이르기까지 다양한 분야에 활용되고 있으며 그 범위를 넓혀 나가고 있다. 챗 봇은 대화형 인터페이스의 기초이면서 동시에 (음성 인식과 결합을 통한) 무입력 방식 인터페이스의 기반 기술이기도 하다.

    기존의 챗 봇들은 자연어 분석과 베이지안 통계에 기반한 사용자 의도 패턴 인식과 그에 따른 템플릿 응답을 기본 원리로 하여 개발되었다. 그러나 2012년 이후 급속도로 발전한 딥러닝 및 그에 기초한 자연어 인식 기술은 기계 학습을 이용해 챗 봇을 만들 수 있는 가능성을 열었다. 기계학습을 통해 챗 봇을 개발할 경우, 충분한 학습도의 모델을 구축한 후에는 학습 데이터에 따라 컨텍스트에서 벗어난 임의의 문장 입력에 대해서도 적당한 답을 생성할 수 있다는 장점이 있다.

    이 발표에서는 Python 3 및 TensorFlow를 이용하여 딥러닝 기반의 챗 봇을 만들 경우에 경험하게 되는 문제점들 및 해결 방법을 다룬다. 봇의 컨텍스트 엔진과 대화 엔진간의 다형성 모델을 구현하고 연결하는 아이디어와 함께 자연어 처리 및 연속 대화 구현, 어법 처리 등을 어떻게 모델링할 수 있는 지에 대한 아이디어 및 구현과 팁을 공유하고자 한다.

  • Accelerated Computing (CUDA & HPC)

    13:00 - 13:30

    Python 기반의 멀티플랫폼을 이용한 전지구 대기모델(역학코어)의 GPU 가속 발표 자료 보기

    김기환 박사 (재)한국형수치예보모델개발사업단

    오늘날 슈퍼컴퓨터를 이용한 전지구 대기 시뮬레이션은 단기 기상예측과 장기 기후예측에 매우 중요한 역할을 하고 있다. 대한민국 기상청에서는 1991년부터 수치예보모델을 운영하기 시작하여 1997년에는 일본기상청의 GDAPS 모델을 도입, 08년부터는 영국기상청의 UM 모델을 도입하여 현재까지 사용하고 있다. 2011년에는 본 사업단인 재)한국형수치예보모델개발사업단을 설립하여 전지구 대기모델 KIM (KIAPS Integrated Model)을 자체 개발해 오고 있으며, 2019년부터 현업모델로 운영할 계획에 있다.

    수치예보모델은 전지구의 대기 상태를 매 타임스텝마다 계산해야 하므로 막대한 컴퓨팅 자원을 요구한다. 기상청에서는 2000년 1호기(NEC SX5)를 시작으로 2015년 4호기(CRAY XC40)까지 매 5년마다 슈퍼컴퓨터를 도입하여 수치예보모델을 운영하고 있다. 그러나 현재 사용 중인 영국기상청의 UM모델이 CPU 머신에서만 실행되는 까닭에 저전력, 고성능의 가속 프로세서들(NVIDIA GPU, INTEL MIC, 등)을 활용할 수 없고, 슈퍼컴퓨터를 도입할 때도 가속 프로세서들을 포함하지 못하고 있다.

    본 사업단에서는 차세대 수치예보모델에서 다양한 최신 프로세서들을 적극적으로 활용하기 위해 Python 기반의 멀티플랫폼을 개발하고 있다. 전력소비는 줄이면서 연산능력을 높이고자 하는 시도는 계속되고 있고 이미 다양한 형태의 병렬 프로세서들이 판매되고 있기 때문에, 여러 종류의 프로세서 하드웨어를 활용할 수 있는 멀티플랫폼의 필요성은 점점 더 높아질 것이다. Python은 간결하고 직관적인 문법으로 프로그램 개발 생산성을 높여주고, 특히 Fortran, C, CUDA, OpenCL 등의 컴파일 언어들과의 결합이 쉬워서 멀티플랫폼을 위한 프로그래밍 언어로 적합하다고 여겨진다.

    이번 발표에서는 멀티플랫폼을 위해 새로 개발한 PyMIP (Python based Machine Independent Platform) 모듈을 소개하고, 이를 기반으로 개발한 전지구 대기모델(역학코어)의 NVIDIA GPU 클러스터에서의 계산성능을 보여주고자 한다.

    13:30 - 14:00

    A Fast and Scalable Graph Processing Method based on Streaming Topology to GPUs 발표 자료 보기

    김민수 교수 대구경북과학기술원

    A fast and scalable graph processing method becomes increasingly important as graphs become popular in a wide range of applications and their sizes are growing rapidly. Most of distributed graph processing methods require a lot of machines equipped with a total of thousands of CPU cores and a few terabyte main memory for handling billion-scale graphs. Meanwhile, GPUs could be a promising direction toward fast processing of large-scale graphs by exploiting thousands of GPU cores. All of the existing methods using GPUs, however, fail to process large-scale graphs that do not fit in main memory of a single machine. Here, we propose a fast and scalable graph processing method GTS that handles even RMAT32 (64 billion edges) very efficiently only by using a single machine.

    The proposed method stores graphs in PCI-E SSDs and executes a graph algorithm using thousands of GPU cores while streaming topology data of graphs to GPUs via PCI-E interface. GTS is fast due to no communication overhead and scalable due to no data duplication from graph partitioning among machines. Through extensive experiments, we show that GTS consistently and significantly outperforms the major distributed graph processing methods, GraphX, Giraph, and PowerGraph, and the state-of-the-art GPU-based method TOTEM.

    14:00 - 14:20

    Dell’s HPC and Blueprint Portfolio 발표 자료 보기

    윤선욱 부장 DELL EMC Korea

    빅데이터 분석, 기상 예측, 에너지 탐사, 과학 시각화 및 전산 유체역학 등의 분야는 더 나은 결과를 위해 GPU 가속 컴퓨팅의 혜택을 누리고 있다.

    14:20 - 14:30

    Break / Booth & Poster Exhibition

    14:30 - 15:00

    Various optimization strategies for implementing fast discrete wavelet transforms on GPUs 발표 자료 보기

    Tran Minh Quan UNIST

    Conventionally, discrete wavelet transform (DWT) attempts to decompose an image into two sub-regions: the upper-left stores the low-frequency coefficients and the rest stores the high coefficients. The main bottlenecks of this scheme are memory-bound issues when we have to either access non-coalesced memory or use image transposition. Although, the sliding window method can help us to quickly process the image without transposition, we still need to rearrange the coefficients after each filtering step. In this talk, we present various state-of-the-art GPU optimization strategies in DWT implementation, such as leveraging shared memory, registers, warp shuffling instructions, and thread- and instruction-level parallelism (TLP, ILP), and eventually, elaborate our hybrid approach to further boost up its performance. In addition, we introduce a novel mixed-band memory layout for Haar DWT, where multi-level transform can be carried out in a single fused kernel launch. As a result, unlike recent GPU DWT methods that focus mainly on maximizing ILP, we show that the optimal GPU DWT performance can be achieved by hybrid parallelism combining both TLP and ILP together in a mixed-band approach. The performance of our proposed method is assessed rigorously by comparison with other CPU and GPU DWT methods.

    15:00 - 15:30

    금융회사 CUDA 활용 방안 - (부제)보험 계리 프로그램 개선 개발 발표 자료 보기

    김영길 대표이사 라이칸 주식회사

    보증준비금 산출 프로젝트의 개요, 보증준비금산출 업무개요 및 프로젝트 목표 등을 설명하고, 개발 시 특이사항 및 개선결과 등 실제 금융회사 소프트웨어에서 CUDA를 사용한 개발의 구체적인 결과를 제시하고 향후 계획을 공유합니다.

    프로젝트 개요 / 보증준비금 산출 업무 개략 설명 / Challenge - 산출시간 / CUDA 병렬개발 아키텍쳐 / 개발 시 특이사항 (double precision 등) / 개선 결과 (CPU 대비) / 향후 계획.

    15:30 - 15:50

    Break / Booth & Poster Exhibition

    15:50 - 16:20

    디스플레이 및 반도체 산업에서 CUDA기술의 응용 발표 자료 보기

    메타리버테크놀러지 안철오 박사

    반도체 및 디스플레이 제품 생산을 위해서는 sputtering, CVD(Chemical Vapor Deposition), Etching, Ion Implantation 등 여러 단계의 공정을 거쳐야 하는데, 박막 증착기술과 플라즈마 기술은 이들 공정을 구성하는 핵심적 기술이라고 할 수 있다. 반도체의 경우 초미세화, 고집적화 그리고 입체화가 진행되고 있으며 디스플레이의 경우 대면적화, 고집적화가 요구되고 있으므로 이에 부응하여 지속적으로 이들 생산 설비들은 해를 거듭할수록 더욱 높은 기술 수준이 요구되고 있다. 이러한 산업에서 지속적으로 경쟁력을 확보하기 위해서는 해석S/W를 활용하여 이들 공정의 근본적 물리적 현상을 이해함으로써 공정을 설계하고 개선할 수 있는 기술적 역량을 확보하는 것이 필수적이다.

    박막 증착기술의 해석은 고진공의 챔버 내부에서 증발하는 물질을 원하는 지점에 균일한 두께로 증착하도록 하는 과정을 입자단위로 해석하는 기술이다. 메타리버터크놀러지㈜는 CUDA기술을 기반으로 이러한 해석소프트웨어(samadii/sciv)를 독자적으로 개발하여 유수의 국내외 OLED, LCD업체에서 진공 영역에서의 유동해석, 화학반응 및 증발, 증착 해석에 사용되고 있다.

    플라즈마의 해석을 위해서는 복소 행렬을 고속으로 해석할 수 있는 고속의 전자기장 해석 모듈이 필요하며, 이로부터 얻어진 장(field) 내부에서 이온과 전자의 거동에 의해 매 순간 이들 입자의 전하량에 의해 형성되는 국부적 전기장의 성분이 추가적으로 발생함으로 인해 다음 단계에서 다시 이온과 전자의 거동에 재귀적인 영향을 끼치게 되고, 입자간의 충돌에 의한 이온화 과정을 계산해야 한다.

    이와 같은 입자기반의 직접적 플라즈마 해석은 그간 너무 복잡한 물리적 현상과 막대한 연산량 등의 문제점으로 인해 해석S/W의 상용화가 이루어지지 못했지만, CUDA기술에 힘입어 실제적인 해석이 가능한 수준에 이르렀다. CUDA기술을 이용하여 자사에서 개발된 해석S/W와, 디스플레이 및 반도체 산업에서의 응용사례를 소개하고자 한다.

    16:20 - 16:50

    Optimal median filter algorithms for image data processing on GPU 발표 자료 보기

    김형진 박사 삼성 종합기술원

    Median filter is an irreversible but effective method for eliminating speckles or noise in image processing.The level(2x2,3x3 or more) of median filter can be easily controlled by adjusting the number of included neighbor pixels. On usual CPU, median filter at target pixel is calculated in point by point sequence and neighbor pixels can be counted regarding with CPU cache architecture. But in GPU, memory structure and parallel processing strategy requires totally different approach for optimized median filter processing. In this session, various types of median filter algorithms for GPU system will be presented and discussed each of algorithm in detail. The best filtering method is not the only one but depends on the size of neighbor pixels(median filter level). Nevertheless GPU memory access structure is the most important factor and should be carefully optimized for best performance rather than computational cost.

  • ProViz & VR

    13:00 - 13:30

    NVIDIA VRWorks VR Funhouse: A Post Mortem을 통한 VR 애플리케이션 가속화 발표 자료 보기

    David Weinstein NVIDIA

    Across graphics, audio, video, and physics, the NVIDIA VRWorks suite of technologies helps developers maximize performance and immersion for VR games and applications. This talk will explain how the technologies work and provide application-level tips and tricks to taking full advantage of these features. A special focus will be given to details on the latest VRWorks integrations into Unreal Engine and Unity, both as case studies on how to take advantage of VRWorks in real game engines, and as a guide for engine licensees on engine-specific implementation details.

    13:30 - 14:00

    리얼타임엔진을 활용한 컨텐츠 제작사례

    박성훈 대표 DigiForet

    1. 가상현실을 활용한 재활훈련 제작사례
    2. 리얼타임엔진을 활용한 건축시각화
    3. Procedural 텍스쳐링 활용사례
    4. 리얼타임엔진+모션센서+피칭머신을 활용한 스크린야구 개발 사례

    14:00 - 14:15

    Accelerate GPU 발표 자료 보기

    정연구 기술 이사 Mellanox

    GPU Direct RDMA 기술을 활용한 GPU 가속화 및 적용 사례.

    14:15 - 14:30

    Break / Booth & Poster Exhibition

    14:30 - 15:00

    Cloud-based 360° Video Player (클라우드 스트리밍 기반의 360도 비디오 플레이어) 발표 자료 보기

    이교범 팀장 Entrix

    SK텔레콤의 ICT 솔루션과 결합한 Cloud 기반의 Heavy Graphic User(설계 엔지니어, 3D 컨텐츠 디자이너)를 위한 고해상도(FullHD) 3D 디지털 컨텐츠 제작 환경을 제공하는 플랫폼으로써 실시간 대용량 N/W Traffic 최적화 기술, 가상화 기술, Multi-device 지원 기술을 기반으로 언제 어디서든지 설계 디자인 환경을 제공할 수 있는 통합 3D 디지털 컨텐츠 제작 환경 제공 서비스에 대한 시연 및 소개가 진행될 예정이다.

    15:00 - 15:30

    Industry를 위한 Digital Graphics 2.0

    안준성 부장 SK Telecom

    15:30 - 15:50

    Break / Booth & Poster Exhibition

    15:50 - 16:20

    Virtual reality for surgical education in oral and maxillofacial surgery 발표 자료 보기

    문성용 교수 조선대학교

    In today's surgical residency programs, most education in surgical skill takes place in the operating room (OR). There may never be a replacement for the live situation of the OR as the final environment for learning to perform operations. Surgeon’s educational programs have been undergoing constant changes, not only in our country, but also internationally. The education for younger doctors treating jaw deformity patients is slightly different from each institution in terms of diagnostic tools, preoperative planning methods and surgical procedures. I would like to introduce our educational program for resident surgeons by presenting the past, present, future and discuss strategies to overcome barriers to enhance resident surgeon’s training program. Computer-based education has assumed to have an increasing role in medical education.

    Technological advances have created a diverse range of simulators that can facilitate learning and evaluation in numerous areas of medical education. Simulation technology holds great promise to improve physician training and, thereby, to impact patient safety and health care outcomes in a positive and significant way.

    16:20 - 16:50

    가상현실 새로운 접근 - 예술과 산업의 콜라보레이션 발표 자료 보기

    최석영 대표 감성놀이터

    가상현실의 예술작품으로 접근과 그 작품들이 상업적 콜라보레이션을 하면 진화하고 발전하여 새로운 콘텐츠로 가치와 가능성을 갖는 프로젝트 발표 (심리치유 VR 작품을 중심으로).

  • Autonomous Machine

    13:30 - 14:00

    Autonomous Machine를 위한 NVIDIA Platform 발표 자료 보기

    차정훈 상무 NVIDIA Korea

    Jetson & Jetpack: 세계 최초의 임베디드 슈퍼컴퓨터인 NVIDIA Jetson보드는 임베디드 시스템 분야에서 GPU의 성능을 활용하는 데 필요한 모든 것을 제공하여 딥 러닝을 비롯한 컴퓨터 비전, 로보틱스 등 다양한 분야에 가속화된 컴퓨팅 성능을 가져다 주고 있다. 최신 Jetson 임베디드 시스템 소개와 함께 최고 성능의 딥 러닝 플랫폼을 구축하고자 하는 개발자들을 위해 NVIDIA가 지원하는 개발자 도구 및 라이브러리인 JetPack에 대해서도 자세히 소개할 예정이다.

    DRIVE PX: 자율주행 자동차를 위한 세계 최초의 슈퍼컴퓨터인 DRIVE PX는 NVIDIA GPU의 강력한 성능으로 차량 주변 상황을 360도 전방위적으로 인식하고 대량의 데이터를 신속하게 처리할 뿐만 아니라 딥 러닝 기반의 자율 주행 기술로 안전하고 편안한 주행 환경을 제공한다. 현재 전 세계 80개 이상의 자동차 제조사, 주요 공급업체, 스타트업 및 연구 기관에서 자율주행 자동차 개발을 위해 DRIVE PX 플랫폼을 사용하고 있다. 이 세션에서는 DRIVE PX가 어떻게 까다로운 자율주행 기술을 구현하는 지 보다 자세히 안내할 예정이다.

    14:00 - 14:20

    Compression of Deep CNNs for fast and low power mobile applications 발표 자료 보기

    김용덕 책임연구원 삼성전자 DS부문 소프트웨어 연구소

    고속/저전력 모바일 응용을 위한 딥 CNN 최적경량화

    14:20 - 14:30

    Break / Booth & Poster Exhibition

    14:30 - 15:00

    Implementation of Deep Learning ALPR in TK1 발표 자료 보기

    강현인 대표 (주)인펙비전

    1. Jetson TK1 module
    2. Expanded Peripherals
    3. ALPR Requirement I/O
    4. ALPR Procedure
    5. CUDA in ALPR
    6. Image Samples in Real Environment
    7. Performance in Deep Learning
    8. GUI Application

    15:00 - 15:30

    고속 스테레오 매칭 알고리즘 및 GPU 기반 병렬처리 기법 연구 발표 자료 보기

    홍광수 연구원 숙명여자대학교

    최근 자율주행 자동차/스마트 자동차를 중심으로 차량/보행자의 안전과 자율주행 성능을 위한 실내외 3차원 정보를 확보하는 센서 및 신호처리 기술의 중요성이 부각되고 있다. 그 중에서도 3D scanner Lidar와 단안카메라 조합을 대체하는 용도로 스테레오 비젼이 근거리 및 중거리 주행 환경 인식 분야에서 연구가 활발하다. 스테레오 비젼 기술의 장점으로는 상대적으로 고가의 3D scanner Lidar 센서에 비해 저가형 구조가 가능하며, 내구성과 차량 외관을 변형하지 않고 구성이 가능하며, ADAS (Advance Driver Assistance System) 측면에서 3차원 거리 정보와 물체의 형상 정보를 동시에 제공할 수 있다. 본 발표에서는 자율 주행에서 부각되고 있는 스테레오 매칭 알고리즘 기술과 Jetson TX1 보드에서 CUDA 기반 실험 결과를 소개하고자 한다.

    15:30 - 15:50

    Break / Booth & Poster Exhibition

    15:50 - 16:20

    Scalable Distributed Deep Learning 발표 자료 보기

    송한희 CTO Softonnet

    뉴럴 네트워크를 이용하여 고도의 기계학습을 행하는 딥러닝 (deep learning)은 기존의 머신러닝에 비해 매우 computationally intensive하다는 단점이 있다. 빅 데이터를 처리하는 기존의 distributed batch processing 방법인 MapReduce, Hadoop, Spark등은 장기간 업계에서 사용되며 신뢰할 만한 스케쥴링 기법과 job management기술을 쌓아왔다. 그러나 이를 이용하기 위해서는 데이터가 분산, 병렬 처리에 적합하도록 독립적으로 구성되어야 한다. 딥러닝을 포함한 뉴럴 네트워크 기반의 학습 기법은 그러나 강한 data dependency를 갖고 순차적인 처리를 요구하기 때문에 기본적으로 분산처리에 적합하지 않다.우리는 그러한 batch processing scheme중 하나인 Apache Spark을 GPU기반 뉴럴 네트워크에 맞도록 재구성하여 distributed deep learning platform으로 변형하였다. 이 플랫폼은 기존 Spark에GPU간 asynchronous data communication이 가능하도록 하고, Resource negotiator인 YARN이 GPU 노드들을 관리할 수 있도록 하였고, 스케쥴러를 통해 deep learning task를 Spark node에 부여할 수 있도록 하였다. 이 위에 deep learning analytic으로서 영상 인식 엔진을 함께 패키지 해 전체 스택을 하나의 영상 처리 플랫폼으로 만들었다. 4대의 연산 서버가 각각 4장의 GPU카드를 가진 경우 (4x4=16 GPU), single-GPU 에 비해 약 10배 (i.e., one order of magnitude) 빠른 처리 속도를 낸다. 더 중요하게, 이 플랫폼은 분산처리 시스템의 장점을 활용하여 상용 서비스에 있어 필수적이라 할 수 있는 신뢰성 (fault tolerance, resilience to failure) 을 보장한다.

    16:20 - 16:50

    Data-driven Imaging Biomarker: transforming the way we see medical images 발표 자료 보기

    백승욱 대표 Lunit

    Deep learning has been gaining more attention as it shows outstanding performances in various cognitive tasks. Given a large number of training data, deep convolutional neural network can learn a set of multi-layered imaging features that is obtained in a fully data-driven manner. This feature learning capability has a great potential to be used in a development of novel imaging biomarkers, namely data-driven imaging biomarker(DIB). We developed a training system of DIB that consists of two parts: deep convolutional neural network and feature activation map generator. We intentionally avoided the use of lesion-annotation to maximize the chance of novel feature discovery. The DIB is visually represented in the feature activation map that provides user experience similar to that of molecular/functional imaging. We evaluated this method in abnormality screening tasks with two datasets: 9,757 digital mammograms and 102,885 chest radiographs.

16:50

Conference Close