Loading...

학술행사

Korean AI Association

  >   학술행사   >   국내학술대회

국내학술대회

연사 및 강의 소개
Explicit Deep Generative Model
 
   연사: 문일철 교수(KAIST)
   Title: Explicit Deep Generative Model
 
Abstract :
Probabilistic graphical model (PGM) has been a key bridge in connecting the machine learning community to the statistics and probabilistic modeling communities, and its inference has been supported by the variational inference and the sampling based inference. After the blast of the neural network, PGMs have incorporated neural networks through the link of the variational inference, and one of such examples is the variational autoencoder, a.k.a. deep generative model. This tutorial will 1) briefly overview the inference of PGMs; 2) discuss the diverse developments of variational autoencoders; and 3) presents some applications of the explicit deep generative models.
 
 
  약력
   2011 - 현 재: KAIST 산업 및 시스템 공학과 교수
   2008 - 2011: KAIST 박사후 연구원
   2005 - 2008 Carnegie Mellon University 전산학과 박사 
  
홈페이지
    http://aai.kaist.ac.kr/xe2/
 
 
 
 
 
Adversarial Robustness
 
 연사: 신진우 교수 (KAIST)
 
 Title: Adversarial Robustness of Deep Neural Networks
              
Abstract: 
In the last many years, deep neural networks (DNNs) have achieved impressive results on various AI tasks, e.g., image classification, face/object recognition, semantic segmentation and playing games. The ground breaking success of DNNs has motivated their use in a broader range of domains, including more safety-critical environments such as medical imaging and autonomous driving. However, DNNs have been shown to be extremely brittle to carefully crafted small adversarial perturbations added to the input. These perturbations are imperceptible to human eyes, but have been intentionally optimized to cause miss-prediction. While the field has primarily focused on the development of new attacks and defenses, a `cat-and-mouse' game between attacker and defender has arisen. There has been a long list of proposed defenses to mitigate the effect of adversarial examples, which have shown that any defense mechanism that once looks successful could be circumvented with the invention of new attacks. In this lecture, I will survey the recent literature on the topic.
 
  약력
   2013 - 현재: KAIST 전기및전자공학부 및 AI대학원 교수
   2012 - 2013: IBM T. J. Watson Research Center 연구원
   2010 - 2012: Georgia Institute of Technology 연구원
 
 
 
 
Set-input Neural Networks and Amortized Clustering
 
  연사: 이주호 박사 (AITRICS)
 
  Title: Set-input Neural Networks and Amortized Clustering
 
Abstract:
Most of the neural networks typically used takes a fixed-length vector as input, while many real-world problems require taking sets of vectors as input. The example includes multiple instance learning, point-cloud classification, scene understanding, and few-shot image classification. This tutorial describes how to build a simple neural network to process sets (set-input neural network), how to train it, and how to apply it to real-world problems. In the latter part of the tutorial, an advanced set-input neural network is described. As an illustrative example, the amortized clustering problem is introduced, and how the advanced set-input neural network can solve this problem is discussed.
 
 
  약력
   2019-현재, AITRICS 연구원
   2018 - 2019, University of Oxford, 박사후 연구원
   2011 - 2018, POSTECH 전산과학및공학과 박사.
   2011, POSTECH 전산과학및공학과 학사
 
  홈페이지
    https://juho-lee.github.io/
 
 
Knowledge in Nueral NLP
 
연사:황승원 교수 (연세대학교)
 
Title: Knowledge in Neural NLP
 
Abstract:
This talk surveys state-of-the-art NLP models injecting (or transferring) knowledge. Especially, our recent work injecting (diverse forms of) knowledge to meaningfully enhancing the accuracy and robustness will be highlighted. These models then have faced an inevitable question:  “Do you think BERT implicitly contains all these information already?” The last part of the talk presents our investigation to answer this question. 
 
  약력
   2015 - 현재: 연세대학교 교수
   2005 - 2015: POSTECH 교수
 
  홈페이지
 
 
 
Pretrained Language Model
 
    연사: 김건희 교수(서울대학교)
Title: Pretrained Language Model
 
Abstract:
근래 Bert, GPT, XLNet 등 언어 모델로 사전 학습된 딥러닝 모델들이 여러 자연어 처리 문제들에서 최고의 성능을 보여주고 있다. 이 모델들은 언어모델(Language Model)로써 대용량의 학습데이터로 사전 학습하여 컨택스트를 고려한 임베딩을 배운 후, 질의 응답, 감정 분석 등 목적 작업의 학습 데이터에 fine-tuning하여 성능을 향상시킬 수 잇다. 본 강좌에서는 가장 중요한 Pretrained 언어 모델인 BERT에 대해 자세히 다루고, RoBERTa and ALBERTA 등 개선된 최신 모델들에 대해 살펴본다.
 
 
 
약력
2015 - 현재 : 서울대학교 공과대학 컴퓨터공학과 조교수
2013 - 2015 : 박사후 연구원, Disney Research
2009 - 2013 : Carnegie Mellon University 전산학 박사
 
   홈페이지
    http://vision.snu.ac.kr
 
 
 
Meta-Learning for Few-shot Classification
 
연사: 김세훈 박사 (AITRICS)
 
 Title: Meta-Learning for Few-shot Classification  
Abstract:
본 강의에서는 메타 학습 방법 기반의 소수샷 분류(few-shot classification) 최신 알고리즘을 소개합니다. 메타 학습은 단일 문제만을 해결할 수 있는 모델을 학습하는 것이 아니라, 연관된 여러 문제들에 공통적으로 적용되는 모델을 생성하여 학습 시에 접하지 못한 새로운 문제도 효과적으로 해결할 수 있는 방법론을 의미합니다. 고전적인 소수샷 분류기는 기계학습 모델을 적절하게 정규화(regularization)하여 적은 수의 레이블에서 기인하는 모델 과적합 문제를 해결하고자 하였지만 매칭 네트워크 알고리즘이 소개된 이후로 메타 학습이 소수샷 분류를 해결하는데 성공적으로 적용되고 있습니다. 메타 학습을 통한 소수샷 분류는 매트릭/그래디언트 기반 알고리즘으로 세분화할 수 있기 때문에,
본 강의에서는 소수샷 분류 해결을 위한 메타 학습 기초, Prototypical 네트워크로 대표되는 매트릭 기반 알고리즘, MAML로 대표되는 그래디언트 기반 알고리즘에 관한 최신 연구 Title을 구체적으로 소개할 예정입니다.
 
  약력
   2017-현재, AITRICS 연구팀장
   2018, POSTECH 컴퓨터공학 박사
   2009, POSTECH 컴퓨터공학 학사

  홈페이지
 
 
 
 
Deep Generative Models
 
 연사: 양은호 교수(KAIST)
 Title: Deep Generative Models
 
Abstract:
본 강연에서는 structured probabilistic models, monte carlo methods와 approximate inference에 대해서 간략하게 리뷰하고, 이러한 테크닉들을 바탕으로 학습되는 다양한 형태의 generative model에 대해서 살펴본다. VAE, GAN 과 같은 최근 deep generative model들에 대해서 소개하고, generative model을 보다 깊이 있게 이해하기 위하여 모델들이 갖는 이질적 property들에 대해서도 살펴본다.
 
 
  약력
   2019 - 현재 : KAIST AI대학원/전산학부 부교수
  2016 - 2019 : KAIST 전산학부 조교수  
  2014 - 2016 : IBM T.J. Watson Research Center, Research Staff Member
  2014         : University of Texas at Austin 컴퓨터과학 박사
 
 
  홈페이지
 
 
Automated Machine Learning for Visual Domain
     연사: 임성빈 교수 (UNIST)
 
Title: Automated Machine Learning for Visual Domain
 
Abstract: 
본 강연에서는 이미지 데이터를 위한 AutoML 방법론을 소개합니다. AutoML 연구의 한 축인 Neural Architecture Search (NAS) 를 소개하고, 이미지 데이터에 적용된 최근의 NAS 연구들을 살펴볼 예정입니다. 아울러 Automated Augmentation 도 같이 소개할 예정입니다.
 
 
 
 
  약력
   2020-현재, UNIST 
  2018-2020, 카카오브레인
  2016-2017 삼성화재
  2010-2016, 고려대학교 수학과 박사
   
홈페이지
 
 
Human-in-the-Loop Generative Models
 
 연사: 주재걸 교수(고려대학교)
 
 Title: Human-in-the-Loop Generative Models

Abstract:
Generative adversarial networks 의 발전에 힘입어, 이미지, 텍스트 등의 데이터를 생성 및 변환하는 딥러닝 기술은 점점 발전하고 있다. 이러한 기술이 컨텐츠 제작 등의 다양한 분야에 실제로 적용되면서, 사용자의 다양한 요구 사항을 반영할 수 있는 진보된 딥러닝 기술 및 효과적인 사용자 인터페이스도 최근 활발히 연구되고 있다. 본 강의는 이미지 데이터의 생성 및 변환 태스크를 중심으로 이러한 뱡향의 최근 연구 사례 및 동향을 소개한다. 
 
  약력
   2015 - 현 재: 고려대학교 교수
   2013: Georgia Institute of Technology 전산과학 및 공학과 박사
   2009: Georgia Institute of Technology 전산과학 및 공학과 석사
 
 홈페이지
   http://davian.korea.ac.kr