Korean AI Association

  >   학술행사   >   국내학술대회


발표자 및 초록
Plenary Talk
초청 연사
초청 강연
7월 8일 (목)
Title: 데이터 AI 시대 디지털 대전환의 리더십 
차상균 교수 
서울대 데이터사이언스 대학원장

Abstract & Biography
Title: Generalization in Data-Driven Control
Prof. Sergey Levine (UC Berkeley)
Current machine learning methods are primarily for tackling prediction problems, which are almost cast as supervised learning tasks. Despite decades of advances in reinforcement learning and learning-based control, the applicability of these methods to domains that require open-world generalization -- autonomous driving, robotics, aerospace, and other applications, -- remain challenging. Realistic environments require effective generalization, and effective generalization requires training on large and diverse datasets that are representative of the likely-time scenarios. I will discuss why this poses a particular challenge for learning-based control, and present some recent research directions that aim to address this challenge. I will discuss how offline reinforcement learning algorithms can make it possible for learning-based control systems to utilize large and diverse real-world datasets, how the use of diverse data can enable robotic systems to navigate real-world environments, and how multi-task and contextual policies can enable broad generalization to a range of user-specific goals.
Sergey Levine received a BS and MS in Computer Science from Stanford University in 2009, a Ph D., in Computer Science from Standford University in 2014. He joined the faculty of the Department of Electrical Engineering and Computer Science at Berkeley in fall 2016. His work focuses on machine learning for decision making and control, with an emphasis on deep learning and reinforcement learning algorithms. Applications of his work include autonomous robots and vehicles, as well as computer vision and graphics. His research includes developing algorithms for end-to-end training of deep neural network policies that combine perception and control, scalable algorithms for inverse reinforcement learning, deep reinforcement learning algorithms, and more.
Title: Embedded Convex Optimization for Control
Prof. Stephen Boyd (Stanford University)
Control policies that involve the real-time solution of one or more convex optimization problems include model predictive (or receding horizon) control, approximate dynamic programming, and optimization based actuator allocation systems. They have been widely used in applications with slower dynamics, such as chemical process control, supply chain systems, and quantitative trading, and are now starting to appear in systems with faster dynamics. In this talk I will describe a number of advances over the last decade or so that make such policies easier to design, tune, and deploy. We describe solution algorithms that are extremely robust, even in some cases division free, and code generation systems that transform a problem description expressed in a high level domain specific language into source code for a real-time solver suitable for control. The recent development of systems for automatically differentiating through a convex optimization problem can be used to efficiently tune or design control policies that include embedded convex optimization.
Stephen Boyd is the Samsung Professor of Engineering, and Professor and Chair of Electrical Engineering at Stanford University, with courtesy appointments in Computer Science and Management Science and Engineering. He received the A.B. degree in Mathematics from Harvard University in 1980, and the Ph.D. in Electrical Engineering and Computer Science
from the University of California, Berkeley, in 1985, before joining the faculty at Stanford. His current research focus is on convex optimization applications in control, signal processing, machine learning, finance, and circuit design. He is a member of the US National Academy of Engineering, a foreign member of the Chinese Academy of Engineering, and a foreign member of the National Academy of Korea.
차상균 교수 
서울대 데이터사이언스 대학원장
1980.2   서울대 전기공학과 학사
1982.2   서울대 제어계측공학과 석사
1991.7     Stanford 대학교 전기공학(컴퓨터 시스템) 박사
1992~ 현재    서울대 전기정보공학부 교수
2001-2002   Standford 대학교 전산학과 방문교수
2014 ~ 현재    서울대 빅데이터연구원장
Title: 인공지능은 어떻게 인간의 뇌와 결합할 것인가?
정재승 교수
인공지능은 인간 지성과 무엇이 다른가? 인공지능은 어떻게 인간의 뇌와 결합할 것인가? 본 강연에서는 최근 뜨거운 이슈인 인공지능과 인간지성을 비교하고 그 유사점과 차이점을 알아보고자 한다. 더 나아가 인간의 뇌로부터 무엇을 어떻게 얻어 인공지능의 새로운 지평을 열 수 있을지 (Brain-inspired A.I.) 고민해보고자 한다. 아울러, 인간의 뇌와 인공지능 로봇을 결합하는 뇌-기계 인터페이스 (Brain-machine Interface) 기술의 현주소를 알아보고 향후 미래를 전망하고자 한다.
KAIST 물리학과에서 물리학 학사, 물리학 석사, 물리학 박사학위를 받고, 미국 예일의대 정신과 연구원, 고려대학교 물리학과 연구교수, 카이스트 바이오 및 뇌공학과 조교수, 콜롬비아의대 정신과 조교수 등을 거쳐 현재 KAIST 바이오및뇌공학과 교수 및 융합인재학부 학부장으로 재직 중이다. 현재 한국계산신경과학회 회장이다.
연구 분야는 의사결정 신경과학이며, 이를 바탕으로 정신질환 대뇌 모델링과 뇌-컴퓨터 인터페이스 분야, 뇌기반 인공지능, 신경건축학을 연구하고 있다. 네이처, 네이처 메디슨, 네이처 커뮤니케이션스 등 해외 저널에 90여편의 논문을 출간한 바 있으며, 2009년 세계경제포럼(다보스 포럼)에서 ‘차세대 글로벌 리더’로 선정되었으며, 다수의 학술상을 수상한 바 있다.
Title: Online Decision Making: from Contextual Bandits to Reinforcement Learning
오민환 교수
본 튜토리얼에서는 순차적 의사결정의 일반적 문제들과 의사 결정 알고리즘 및 이론들을 소개한다. 최적의 정책(policy)을 학습하는 과정 중에 발생하는 exploration-exploitation tradeoff 및 일반화(generalization)의 문제를 해결하기 위한 contextual bandit 기법들을 다룬다. 또한 contextual bandit 기법의 활용 및 확장을 통한 provably efficient 강화학습 연구에 대해 소개한다.
오민환 교수는 Columbia대학에서 2015년 수학 및 통계 학사, 2016년과 2020년에 Operations Research 석사 및 박사 학위를 받았다. 2020년 9월부터 서울대학교 데이터사이언스대학원에 재직 중이며, 강화학습, 밴딧 알고리즘, 통계적 기계학습 분야의 연구를 수행하고 있다.
Title: Recent Trends on Session-based Recommendation System
이종욱 교수 
세션 기반 추천 시스템은 사용자가 로그인되지 않은 환경에서 사용자의 현재 정보를 기반으로, 사용자가 원하는 항목에 대한 추천을 제공해주는 방법이다. 기존의 전통적인 추천 모델이 정적 환경에서 장기적인 사용자 선호도를 모델링하는 반면에 세션 기반 추천 모델은 동적 환경에서 단기적인 사용자 선호도를 포착하는 것을 목표로 한다. 본 강연에서는 비신경망 및 신경망 기반 세션 기반 추천 모델을 소개하고, 최근 연구
결과를 통해 향후 연구 방향에 대해서 논의한다.
성균관대학교 컴퓨터공학과 학사(1999년 3월-2006년 2월)
포항공과대학교 컴퓨터공학과 박사(2006년 3월-2012년 2월)
포항공과대학교 컴퓨터공학과 박사 후 연구원(2012년 3월-2012년
Pennsylvania State University, 박사 후 연구원(2012년 12월-2014년
한국외국어대학교, 컴퓨터공학과 조교수(2014년 9월-2016년 8월)
성균관대학교 소프트웨어학과 조교수(2016년 9월-2020년 8월)
성균관대학교 소프트웨어학과 부교수(2020년 9월-현재)
추천시스템, 정보검색, 데이터마이닝, 자연어처리, 기계학습
국제 학술지 16편 및 국제 학술대회 26 편 게재(WWW, SIGIR, ICDM,


Title: Multi-resolution for Graphs: Graphical Model to Graph Classification for Alzheimer's Disease Analysis
김원화 교수 
Tremendous literature indicate that Brain Networks, defined by associations between different regions of interests (ROIs) in the brain, show early signs of neurodegenerative diseases. Brain networks are naturally represented as Graphs that consists of sets of nodes and edges. Their irregular structures differentiate the graphs from traditional imaging data in Euclidean spaces, and thus it requires sophisticated machine learning and signal processing techniques for a downstream analysis. In this talk, I will introduce our recent effort on analyzing  graph data in neuroimaging studies using the concept of multi-resolution on graph structure. I will first introduce construction of multi-resolution graphical model, which will behave as a core component for Multi-resolution Edge Network (MENET) architecture for graph classification in the second part. Results on Brain Network analyses will be reported that identify disease-specific variations in the brain due to Alzheimer’s Disease (AD).
Won Hwa Kim is an Assistant Professor in the Department of Computer Science and Engineering / Graduate School of AI at POSTECH, South Korea. He obtained his Ph.D in Computer Science from University of Wisconsin - Madison in 2017, M.S. in Robotics from KAIST in 2010 and B.S. in Information and Communication Engineering from Sungkyunkwan University in 2008. Prior to joining POSTECH, he was an Assistant Professor in the Department of Computer Science and Engineering at the University of Texas at Arlington (currently on leave-of-absence) from 2018 and was a Researcher in Data Science team at NEC Labs., America in 2017. He is a recipient of NSF IIS CRII from National Science Foundation (NSF) in the USA and Rising STARs Award from the University of Texas System.
Title: Overview of Task-Free Continual Learning
김건희 교수 
연속/지속 학습 (Continual Learning)은 연속적으로 주어지는 데이터들로부터, 예전 지식은 최대한 잊지 않으면서 새로운 지식을 지속적으로 배울 수 있는 기계 학습 방법론을 다룬다. 본 강의에서는 연속 학습의 기초적인 소개와 더불어, 입력 데이터에 테스크 정보가 주어지지 않는 상황에서의 연속 학습 방법 (Task-free Continual Learning 에 대해서 살펴본다.
2015 - 현재 : 서울대학교 공과대학 컴퓨터공학과 조교수
2013 - 2015 : 박사후 연구원, Disney Research
2009 - 2013 : Carnegie Mellon University 전산학 박사
Title: Large Language Models
서민준 교수 
This tutorial consists of two parts. In the first part, we will learn the basics of language models, including traditional n-gram language models as well as modern LSTM and Transformer (Vaswani et al., 2017)-based ones. In the second part, I will discuss how large language models have transformed AI research in last 4 years, starting from ELMo (Peters et al., 2017) to GPT-3 (Brown et al., 2020). 

Minjoon Seo is an Assistant Professor at KAIST Graduate School of AI. He did PhD in Computer Science at the University of Washington and BS in Electrical Engineering & Computer Science at the University of California, Berkeley. His research interest is in natural language processing and machine learning, and in particular, how knowledge data can be encoded (e.g. external memory and language model), accessed (e.g. question answering and dialog), and produced (e.g. scientific reasoning). He is the recipient of Facebook Fellowship and AI2 Key Scientific Challenges Award. He previously co-organized MRQA 2018, MRQA 2019 and RepL4NLP 2020.