Excellence Sharing Growth

2018. 10. 11-12 COEX Grand Ballroom, Seoul

Scroll icon
See you next year!

DEVIEW 2018 행사가 종료되었습니다.

발표 영상과 자료를 지금 확인해보세요.

WATCH VIDEOS
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진
2018 DEVIEW 행사 사진

SESSIONS

강연 목록

강연자 사진
강연 분야
  • 빅데이터
강연 제목
C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
강연 내용
네이버의 다양한 대용량 데이터를 다루기 위해 수백명이 함께 사용하는 사내 공용의 하둡 클러스터인 C3가 운영되고 있습니다. 일반적으로 하둡은 MapReduce, Spark와 같은 데이터 처리를 위한 플랫폼으로 알려져 있습니다. 하지만, C3에서는 HBase, Kafka, Zeppelin 등의 다양한 앱을 실행하거나 사용자가 직접 작성한 Docker 이미지를 실행할 수 있는 환경을 제공합니다. 이로써 C3는 데이터 처리뿐 아니라 다양한 용도로 사용되고 있습니다. 예를 들어 Zeppelin을 이용해 데이터를 분석하거나, 처리된 데이터를 서빙하는 웹서버를 구동시킬 수도 있습니다. 사실상 데이터 처리부터 분석, 서빙까지의 모든 작업이 하둡 클러스터에서 가능합니다. 본 세션에서는 이를 위해 활용된 YARN, Apache Slider, Docker 대해 소개하며 어떻게 이를 적용하였는지 설명합니다. 또한, 그동안 발생했던 다양한 이슈들을 사례를 들어 설명하고 해결 방법을 공유합니다.
목차
1. C3 소개
  • 데이터 처리를 위한 하둡 클러스터로 시작
  • 다양한 앱, Docker 이미지 실행 환경 제공
2. 어떻게?
  • Hadoop YARN, Apache Slider, Docker
3. 고려사항 / 이슈
  • Containerization
  • Resource Isolation
  • Reliability
  • Scheduling
  • Upgrade/Reconfigure
  • Usability
4. 앞으로는?
강연자
남경완
강연자 사진
강연 분야
  • 머신러닝
  • AI
강연 제목
Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
강연 내용
이 세션에서는 딥러닝 모델을 실제 서비스하는 방법에 대해 실제 경험을 바탕으로 노하우와 팁을 공유합니다. 업데이트된 모델을 안정적으로 배포하는 방법과 롤백, 인퍼런스 오류를 어떻게 대처할지, CPU로 서빙할지 GPU로 서빙할지, 늘어나는 트래픽을 어떻게 대처할지, 서빙을 위한 플랫폼 설계 노하우와 성능 향상을 위한 모듈화, 구현하면서 맞닥뜨렸던 문제들과 고군분투하여 찾은 노하우들 그리고 몇 주간의 삽질로 찾은 안되는 설계와 엔지니어링 측면에서 범하기 쉬운 설계 오류와 실제 성능 테스트 결과 등을 알려드립니다.
목차
1. 문제
  • 모델은 있는데 서버가 없네
  • 다른 사람들은 어떻게 제공하고 있나
2. 해결을 위한 설계 - 학습과 서빙을 위한 시스템 설계 사례
  • 인퍼런스 요청 모듈화하기
  • 어떤 플랫폼을 사용해서 서빙할까 - 인퍼런스 서빙 시스템 아키텍처
  • 인퍼런스 시스템의 라이프사이클
3. AiSP(AI Serving Platform)를 만들어 해결해보기
  • 인퍼런스 서버 만들기
  • 인퍼런스 프로트엔드 만들기
  • 딥러닝 모델 배포 플로우
  • 인퍼런스 트래픽을 컨테이너로 스케일아웃 하기
  • 모델 관리하기와 데이터 관리하기
  • 인퍼런스 예외 처리
4. 만들어진 딥러닝 서빙 플랫폼은 이런 모습
  • 노트북/특정 장비에서 띄우기
  • 네이버의 IQE, C3 플랫폼을 사용해 띄우기
5. 딥러닝 인퍼런스 성능 측정 및 모니터링
  • 성능에 나타난 인퍼런스 요청의 특징
  • 실제로 모니터링하는 지표들 살펴보기
강연자
현동석 양은숙
강연자 사진
강연 분야
  • 검색
  • 머신러닝
  • AI
강연 제목
기계독해 QA: 검색인가, NLP인가?
강연 내용
이 세션에서는 기계 독해 (Machine Reading) 모델을 QA 엔진에 적용하는 방법론에 대한 연구, 겪었던 문제들, 연구계 및 산업의 동향, 그리고 제가 생각하는 우리가 나아가야 할 방향을 전반적으로 다룰 예정입니다. 기계독해는 주어진 문서와 문서에 대한 질문이 주어졌을 때, 문서내에서 답을 구하는 문제입니다. 기계독해는 2016년 SQuAD를 시발점으로 최근에 많은 모델과 많은 데이터 (TriviaQA, MS MARCO, 등등)가 연구 및 공개되었고, 특히 올해에는 인간수준을 넘어서는 알리바바, 마이크로소프트 및 구글의 모델이 공개되기도 했습니다. 이렇게 연구계와 업계가 많은 관심을 보인 이유가 여럿 있겠지만, 기계독해 모델이 QA (질의응답) 엔진에 직접적으로 적용이 가능한 점을 빼놓을 수 없습니다. 예를 들어, "하늘이 왜 파랄까?"라는 질문을 답하기 위해 먼저 관련된 "하늘"이라는 문서를 찾고, 기계독해 모델에 해당문서와 질문을 넣게 되면, 답이 나오는 구조입니다. 이는 문서를 찾아주기만 하는 서비스, 즉 "검색"을 넘어서서, 문서를 "이해"하고 원하는 정보를 꼭 집어서 찾아줄 수 있는 서비스가 됩니다. 다만 막대한 정보의 바다 속에서 올바른 문서를 찾는 것은 쉬운 것이 아닙니다. 따라서 기계독해를 통한 QA는 검색과 NLP의 첨단 접점이라 볼 수 있습니다. 먼저 기계독해 이전의 검색기반 QA를 간단히 설명하고, 다음은 최근에 각광받는 기계독해 (NLP) 기반 QA를 자세하게 살펴보려 합니다. 하지만 전자는 섬세함이 부족하고, 후자는 속도가 느립니다. 그래서 마지막으로는 둘을 통합하는 방법론을 다룹니다. 특히, 단순하게 "검색 후 독해" 형태를 벗어나서, 제가 최근에 연구했던 Phrase-Indexed QA를 새로운 challenge로서 제안하고자 합니다. 기존 기계독해 문제를 phrase retrieval 형태로 치환함으로써, scalability (속도) 뿐만 아니라 phrase representation learning 을 도모합니다. 새로운 패러다임의 첫번째 주자로서 제가 겪었던 문제들 및 해결방법을 논하고, 연구계 및 업계의 참여를 독려하고자 합니다.
목차
1. 찾는 QA (검색)
2. 이해하는 QA (NLP)
3. QA는 검색과 NLP의 조화다
  • 찾고나서 이해하기
  • 빛의 속도로 읽기: Phrase-Indexed QA
강연자
서민준
전체 Schedule 보러가기

PARTNERS

  • baidu
  • carnegie mellon university
  • logo_coupang
  • google
  • hyper connect
  • imply
  • labs
  • labs europe
  • line
  • lunit
  • naver
  • naver business platform
  • nvidia
  • samsunginternet
  • superb ai
  • theori
  • udacity
  • urbanbase

LOCATION

장소
코엑스 그랜드볼룸 (Coex Grand Ballroom)
주소
서울 강남구 영동대로 513 코엑스, (지번) 삼성동 159 코엑스
연락처
02-6000-0114

그랜드볼룸은 봉은사 맞은편 코엑스 1층 북문 쪽에 위치해 있습니다.
지하철 이용 시 9호선 봉은사역 7번 출구를 이용하시거나 삼성역 6번 출구를 이용하시면 됩니다.

교통정보 더보기 >

DEVIEW 2018에 관하여 더 궁금한 점이 있다면?

FAQ 보러가기