Loading...

ÇмúÇà»ç

Korean AI Association

ÇмúÇà»ç
2016 ÆÐÅÏÀÎ½Ä ¹× ±â°èÇнÀ ¿©¸§Çб³ - Bayesian Deep Learning -

  >   ÇмúÇà»ç   >   ±¹³»Çмú´ëȸ

±¹³»Çмú´ëȸ

¿¬»ç¹ßÇ¥
¢º  Bayesian Learning °³·Ð
 
°­»ç
½ÅºÀ±â ±³¼ö(ºÎ°æ´ëÇб³)

³»¿ë
ÃÖ±Ù ±â°è ÇнÀ ¿¬±¸ °³¹ßÀÚµé »çÀÌ¿¡´Â ¼¼»óÀº º¼ ¼ö·Ï ¸ð¸£´Â °Í, ¸¹Àº µ¥ÀÌÅ͸¦ ÁÖ°í ÄÄÇ»ÅÍ¿¡°Ô ¸ðµç °ÍÀ» ³»¸Ã±â´Â 'ÇÐdz'ÀÌ ´ëÀ¯ÇàÇÏ°í ÀÖ´Ù. °á°úÀûÀ¸·Î »ç¶÷Àº ´õ ¾Ë°Ô µÈ °ÍÀÌ ¾øÁö¸¸ ÄÄÇ»ÅÍ´Â ¹º°¡¸¦ ¹è¿î´Ù. ¼ø¼öÇÑ ÀǹÌÀÇ ±â°è ÇнÀÀ» Á¦´ë·Î ´Þ¼ºÇÏ°í ÀÖ´Â °Í °°´Ù. ÀÌ¿Í ´Þ¸® ±â°è°¡ ÇÏ´Â ÁþÀ» ²À ¾Ë¾Æ¾ß°Ú°í ¶Ç ¿øÇÏ´Â ´ë·Î ¹è¿ì°Ô ¸¸µé·Á´Â ÀüÅëÀû 'ÇÐdz'µµ ÀÖ´Ù. ÃÖ±Ù ±â°èÇнÀÀÇ ±Ù°£À» ÀÌ·ç´Â Å« ÁÙ±âÀÇ Çϳª·Î½á ¸¹Àº µ¥ÀÌÅÍ, ºÒÈ®½ÇÇϰųª ºÒ¿ÏÀüÇÏ°í ¾Ö¸ÅÇÑ °Íµé, ÀÌ ¸ðµç °ÍÀ» ¾î¶»°Ôµç È®·ü ¸ðÇüÀ¸·Î Æ÷ÀåÇÏ·Á´Â °ÅÀÇ °­¹Ú°ü³ä¿¡ °¡±î¿î ÆíÁýÁõÀ» º¸À̱⵵ ÇÑ´Ù. Åë°èÀû ±â°è ÇнÀ ¸ðÇü¿¡ ÀÇÇÑ º£À̽º ÇнÀ ¶Ç´Â º£À̽º Ãß·ÐÀ» °¡¸®Å²´Ù. ¿©·¯ºÐÀÌ ¿øÇÏÁö ¾Ê´Â °ÍÀÏ Áö ¸ð¸£°ÚÁö¸¸ ±â°è ÇнÀÀ» À§ÇÑ ¼ö°í¸¦ »ç¶÷ÀÌ ¸ÕÀú ÇÏ´Â ¹æ½ÄÀÌ´Ù. º» °­ÀÇ´Â º£À̽º ÇнÀÀÇ Ã¹ ¹ßÀÚ±¹À» ´Ù·é´Ù. È®·ü ¸ðÇü, º£À̽º Á¤¸®, ±×¸®°í ¸ð¼ö ÃßÁ¤ ¹æ¹ýÀ» ´Ù·ê °ÍÀÌ´Ù. ±â¾ï ¼ÓÀÇ ¾îµò°¡¿¡ ÀÖÀ» ¾Æ·ÃÇÑ Áö½ÄÀ» ²¨³»¾î Á¤¸®ÇÏ°í ±â°èÇнÀÀÇ Ã¹ °è´ÜÀ¸·Î ´Ùµë±â·Î ÇÑ´Ù. Ȥ½Ã ¹Ì¸® ÁغñÇÒ °ÍÀÌ ÀÖ´Ù¸é ¾à°£ÀÇ ¼±Çü´ë¼öÀÇ ±âÃÊ, º£¸£´©ÀÌ¿Í °¡¿ì½º, ¹ÌÀûºÐÀÇ Ã¹ ÆäÀÌÁö Á¤µµ µÉ °ÍÀÌ´Ù. º£À̽º ÇнÀÀ» ÇâÇÑ µÑ° ¹ßÀÚ±¹Àº ÀÚ¿¬½º·´°Ô °¢ÀÚ°¡ ³»µó°Ô µÈ´Ù.

¾à·Â
1999 - ÇöÀç : ºÎ°æ´ëÇб³ ITÀ¶ÇÕÀÀ¿ë°øÇаú ±³¼ö
1991 - 1995 : KAIST Àü»êÇаú ¹Ú»ç
1987 - 1991 : Çѱ¹Åë½ÅSW¿¬±¸¼Ò ¼±ÀÓ¿¬±¸¿ø


 

¢º  Bayesian Nonparametric Learning
 
°­»ç
ÃÖÀç½Ä ±³¼ö(UNIST)

³»¿ë
ºñ¸ð¼ö º£ÀÌÁö¾È ¸ðµ¨Àº ¹«ÇÑÂ÷¿øÀÇ ¸ð¼ö°ø°£¿¡¼­ º£ÀÌÁö¾È ±â¹ýÀ» ÀÌ¿ëÇÏ¿© ȸ±Í, ºÐ·ù, ±ºÁýÈ­ µîÀÇ ¹®Á¦¸¦ ÇØ°áÇÏ´Â ±â°èÇнÀ ±â¹ýÀÌ´Ù. ¸ð¼ö´Â ƯÁ¤ÇÑ ±â°èÇнÀ ¹®Á¦ÀÇ ÇØ·Î ¼³Á¤Çϸç, ºñ¸ð¼ö º£ÀÌÁö¾ÈÀº ¸ðµç ¸ð¼öÀÇ ÁýÇÕÁß µ¥ÀÌÅ͸¦ °¡Àå Àß ¼³¸íÇÏ´Â Çظ¦ º£ÀÌÁö¾È ±â¹ýÀ¸·Î ¼±ÅÃÇÏ´Â ¸ðµ¨ÀÌ´Ù. ȸ±Í ºÐ¼®ÀÇ ¿¹¸¦ µé¸é, ¸ð¼öÀÇ ÁýÇÕÀº µ¥ÀÌÅ͸¦ ¼³¸íÇÒ ¼ö ÀÖ´Â ÇØÀÇ ÁýÇÕÀ» ¸»ÇÑ´Ù. º» °­ÀÇ¿¡¼­´Â ºñ¸ð¼ö º£ÀÌÁö¾È ¸ðµ¨ Áß °¡¿ì½Ã¾È °úÁ¤(Gaussian Processes), µð¸®Å¬·¹(Dirichlet Processes), ¹«ÇÑ Àº´Ð ¸¶ÄÚÇÁ ¸ðµ¨(Infinite Hidden Markov Models) ¹× Àεð¾È ºßÆä °úÁ¤(Indian Buffet Processes)¸¦ ¼Ò°³ÇÑ´Ù. ¶ÇÇÑ, ÀÌ·± ºñ¸ð¼ö º£ÀÌÁö¾È ¸ðµ¨À» ÀÀ¿ëÇÏ¿© ½Ã°è¿­ µ¥ÀÌÅ͸¦ ºÐ¼®ÇÏ¸ç »ç¶÷ÀÌ ÀÌÇØÇÒ ¼ö ÀÖ´Â º¸°í¼­¸¦ ÀÚµ¿À¸·Î ÀÛ¼ºÇÒ ¼ö ÀÖ´Â ÀÚµ¿Åë°èÇÐÀÚ ½Ã½ºÅÛÀ» ¼Ò°³ÇÑ´Ù.

¾à·Â
2013 - ÇöÀç : UNIST Àü±âÄÄÇ»ÅÍ°øÇкΠÁ¶±³¼ö
2013 : ·Î·»½º ¹öŬ¸® ¿¬±¸¼Ò ¹Ú»çÈÄ Æç·Î¿ì
2012 : University of Illinois Àü»êÇаú ¹Ú»ç / ¹Ú»çÈÄ ¿¬±¸¿ø


 

¢º  Bayesian Reinforcement Learning
 
°­»ç
±è±âÀÀ ±³¼ö(KAIST)

³»¿ë
º» °­ÀÇ´Â ±â°èÇнÀÀÇ ºÐ¾ßÀÎ °­È­ÇнÀ(Reinforcement Learning)À» ´Ù·é´Ù. ºñ±³Àû ³Î¸® ¾Ë·ÁÁ® ÀÖ´Â ÆÐÅÏÀνİú °°Àº ¹®Á¦µé°ú ´Þ¸®, °­È­ÇнÀ¿¡¼­´Â ±â°è°¡ Áö´ÉÀûÀ¸·Î ÆÇ´ÜÇÏ°í ÇൿÇÏ´Â ¹®Á¦µéÀ» ´Ù·é´Ù. °­È­ ÇнÀÀÇ Áß¿ä ¸ðµ¨ÀÎ ¸¶¸£ÄÚÇÁ ÀÇ»ç°áÁ¤°úÁ¤(Markov Decision Process; MDP)°ú ºÎºÐ°üÂû ¸¶¸£ÄÚÇÁ ÀÇ»ç°áÁ¤(Partially Observable Markov Decision Process; POMDP)¿¡ ´ëÇÏ¿© ³íÀÇÇÏ°í, ÀÌ ¸ðµ¨µé°ú °ü·ÃµÈ ±âº»ÀûÀÎ ¾Ë°í¸®Áò°ú µ¿ÀÛ¿ø¸®¸¦ ¹è¿î´Ù. ±× ´ÙÀ½ °­È­ÇнÀÀÇ ¼º¹è¶ó°í ºÎ¸¦ ¼ö ÀÖ´Â º£ÀÌÁö¾È °­È­ÇнÀ(Bayesian Reinforcement Learning)¿¡ ´ëÇÏ¿© ³íÀÇÇÏ°í, ½Ã°£ÀÌ Çã¶ôµÇ¸é °­È­ÇнÀÀÇ ÀüÅëÀû ¹®Á¦ Á¤ÀÇ°¡ º¯ÇüµÈ ¿ª°­È­ÇнÀ(Inverse Reinforcement Learning)°ú µµÁ¦ÇнÀ(Apprenticeship Learning)¿¡ ´ëÇÏ¿© ¹è¿î´Ù.

¾à·Â
2006 - ÇöÀç : KAIST Àü»êÇаú ºÎ±³¼ö
2004 - 2006 : »ï¼ºÁ¾ÇÕ±â¼ú¿ø Àü¹®¿¬±¸¿ø
2001 - 2004 : »ï¼ºSDS Ã¥ÀÓ¿¬±¸¿ø
2001 : Brown University Computer Science ¹Ú»ç

 

¢º  Neural Networks °³·Ð
 
°­»ç
¼®ÈïÀÏ ±³¼ö(°í·Á´ëÇб³)

³»¿ë
ÃÖ±Ù Àΰ£°ú ÄÄÇ»ÅÍ¿ÍÀÇ ¹ÙµÏ ´ë°á°ú °°Àº ¼¼°èÀû À̺¥Æ®¿Í ´õºÒ¾î ±â°èÇнÀ¿¡ ´ëÇÑ °ü½Éµµ°¡ ±ÞÁõÇÏ°í ÀÖ´Ù. ƯÈ÷, ±â°èÇнÀ ±â¹ý Áß ÇϳªÀÎ µö·¯´×Àº °¢Á¾ 縰Áö¿¡¼­ ÃÖ°íÀÇ ¼ºÀûÀ» °ÅµÒ°ú µ¿½Ã¿¡ ´Ù¾çÇÑ ºÐ¾ß¿¡¼­ ¼º°øÀûÀ¸·Î È°¿ëµÊÀ¸·Î½á ±× °¡Ä¡¸¦ ÀÔÁõÇÏ°í ÀÖ´Ù. º» °­¿¬¿¡¼­´Â µö·¯´×ÀÇ ±Ù°£ÀÌ µÇ´Â (Àΰø)½Å°æ¸Á¿¡ ´ëÇÑ ±¸Á¶Àû Ư¼º°ú ½Å°æ¸Á ÇнÀ ¾Ë°í¸®Áò¿¡ ´ëÇØ ÇнÀÇÑ´Ù. ¶ÇÇÑ ±íÀº ½Å°æ¸ÁÀ¸·ÎÀÇ È®ÀåÀ» À§ÇÑ ±â¼úÀû ¿ä¼Òµé¿¡ ´ëÇؼ­µµ ¼Ò°³ÇÑ´Ù.

¾à·Â
2015 - ÇöÀç : °í·Á´ëÇб³ ³ú°øÇаú Á¶±³¼ö
2012 - 2014 : Univ. of North Carolina at Chapel Hill ¹Ú»çÈÄ ¿¬±¸¿ø
2012 : °í·Á´ëÇб³ ÄÄÇ»ÅÍ·ÀüÆÄÅë½Å°øÇаú ¹Ú»ç


 

¢º  Deep Convolutional Neural Network
 
°­»ç
±èÁظ𠱳¼ö(KAIST)

³»¿ë
Deep LearningÀº ÃÖ±Ù À½¼º ÀνÄ, ¿µ»ó ÀÎ½Ä ºÐ¾ßÀÇ °¢Á¾ ¼¼°è ±â·ÏÀ» »õ·Î ¼ö¸³Çϸ鼭 °­·ÂÇÑ ±â°èÇнÀ ¹æ¹ýÀ¸·Î °¢±¤¹Þ°í ÀÖ´Ù. ƯÈ÷ ±âÁ¸¿¡ »ç¶÷ÀÌ ¼öµ¿À¸·Î °¢Á¾ Feature¸¦ DesignÇÑ ÈÄ ±â°èÇнÀ ¹æ¹ý°ú °áÇÕÇÏ¿© ºÐ·ù, ÀÎ½Ä ¹®Á¦¸¦ ÇØ°áÇÏ´ø Æз¯´ÙÀÓÀ» Å»ÇÇÇÏ¿© Data·ÎºÎÅÍ ÀÚµ¿ÀûÀ¸·Î °èÃþÀûÀÎ FeatureµéÀ» ÇнÀÇÏ°í ºÐ·ù, ÀνıîÁö ÅëÇÕÇÏ¿© ¼öÇàÇÒ ¼ö ÀÖ´Ù´Â Á¡¿¡¼­ Deep LearningÀº ±â°èÇнÀÀÇ »õ·Î¿î Æз¯´ÙÀÓÀ» Á¦½ÃÇÏ¿´´Ù°í ÇÒ ¼ö ÀÖ´Ù. º» °­ÀÇ¿¡¼­´Â ¿µ»ó ÀνÄÀ» À§ÇÑ Deep Convolutional Neural Network (CNN)À» ¼Ò°³ÇÏ°í CNNÀÌ ±× µ¿¾È ¾î¶»°Ô ¹ßÀüµÇ¾î ¿Ô´ÂÁö »ìÆ캻´Ù. ¶ÇÇÑ ¿µ»ó ÀÎ½Ä ÀÌ¿Ü¿¡µµ Localization, Detection, Segmentation ¹®Á¦µé¿¡ CNNÀÌ È°¿ëµÈ »ç·Ê¿Í Image Captioning, Visual Question Answering ¹®Á¦¿¡¼­ÀÇ ¼º°úµéµµ ¼Ò°³ÇÑ´Ù.

¾à·Â
2009 - ÇöÀç : KAIST Àü±â¹×ÀüÀÚ°øÇаú Á¶±³¼ö
2005 - 2009 : »ï¼ºÁ¾ÇÕ±â¼ú¿ø Àü¹®¿¬±¸¿ø
1998 - 2005 : MIT EECS ¼®»ç / ¹Ú»ç

 

¢º  Deep Recurrent Neural Network
 
°­»ç
Á¤»ó±Ù ¹Ú»ç(SKT)

³»¿ë
ÃÖ±Ù ¿©·¯ ºÐ¾ß¿¡¼­ Ź¿ùÇÑ ¿¬±¸ °á°ú¸¦ º¸¿©ÁÖ°í ÀÖ´Â Recurrent Neural NetworksÀÇ °³³ä, ÃֽŠ±â¼ú ¹× ÀÀ¿ë »ç·Ê¸¦ ¼Ò°³ÇÑ´Ù. ƯÈ÷ RNNÀ» È°¿ëÇÑ Sequence to Sequence (S2S) Learning¶ó´Â Machine Learning FrameworkÀ» ¼Ò°³ÇÏ°í ´Ù¾çÇÑ ¹æ¸é¿¡¼­ ÇØ´ç FrameworkÀ» Àû¿ëÇÏ´Â ¹æ¹ýÀ» ¼Ò°³ÇÔÀ¸·Î½á, ÆÐÅÏÀνÄÀ» ³Ñ¾î¼­´Â µö·¯´×ÀÇ È°¿ë °¡´É¼ºÀ» ¼Ò°³ÇÑ´Ù.

¾à·Â
2014 - ÇöÀç : SKT ¹Ì·¡±â¼ú¿ø
2012 - 2014 : Çѱ¹ÀüÀÚÅë½Å¿¬±¸¿ø(ETRI) ¼±ÀÓ¿¬±¸¿ø
2010 - 2012 : »ï¼ºÀüÀÚ Ã¥ÀÓ¿¬±¸¿ø
2006 - 2010 : POSTECH ÄÄÇ»ÅÍ°øÇÐ ¹Ú»ç


 

¢º  Caffe ȯ°æ¿¡¼­ÀÇ µö·¯´× ½Ç½À
 
°­»ç
±è°èÇö ¹Ú»ç(Intel Korea)

³»¿ë
Caffe´Â Computer Vision ºÐ¾ß¿¡¼­ °¡Àå ³Î¸® ¾²ÀÌ´Â Deep Learning Library Áß Çϳª·Î, ÇÁ·Î±×·¡¹Ö¿¡ ´É¼÷ÇÏÁö ¾Ê¾Æµµ ¼Õ½±°Ô ´Ù¾çÇÑ Deep Network ±¸Á¶¸¦ °í¾ÈÇÏ¿© ¼º´ÉÀ» Å×½ºÆ® ÇØ º¼ ¼ö ÀÖ°í, ÀÚ½ÅÀÌ °í¾ÈÇÑ Network ±¸Á¶¿Í ÇнÀ½ÃŲ °á°ú¹° ÀüºÎ¸¦ ´Ù¸¥ Caffe »ç¿ëÀÚ¿¡°Ô ¾ÆÁÖ °£ÆíÇÏ°Ô °øÀ¯ÇÒ ¼ö ÀÖ´Ù´Â Å« ÀåÁ¡À» °¡Áö°í ÀÖ´Ù. ÀÌ·¯ÇÑ ÆíÀǼºÀ» ¹ÙÅÁÀ¸·Î ±âÁ¸¿¡ ¹ßÇ¥µÈ ¼ö¸¹Àº Deep Network ±â¹Ý ¹æ¹ýµéÀÌ Caffe¸¦ ÅëÇØ °øÀ¯µÇ°í ÀÖÀ¸¸ç, Caffe »ç¿ëÀÚ¶ó¸é ´©±¸³ª Áï½Ã ³í¹®ÀÇ °á°ú¸¦ ÀçÇöÇÏ°í ¼º´ÉÀ» ºñ±³ÇØ º¼ ¼ö ÀÖ¾î ¿¬±¸¿¡ Å« µµ¿òÀ» ¹ÞÀ» ¼ö ÀÖ´Ù. º» °­Á¿¡¼­´Â ¿ì¼± °£´ÜÇÑ Image Recognition ¿¹Á¦¸¦ ½Ç½ÀÇØ º¸¸ç, Caffe¸¦ ÀÌ¿ëÇØ ÁÖ¾îÁø ¹®Á¦¿¡ ÀûÇÕÇÑ Deep Network ±¸Á¶¸¦ Á¦ÀÛ, ÇнÀ, Å×½ºÆ®ÇÏ´Â ¹æ¹ýÀ» ¼Ò°³ÇÑ´Ù. ¶ÇÇÑ Deep LearningÀÇ ´ëÇ¥ÀûÀÎ ÀÀ¿ë ºÐ¾ß Áß ÇϳªÀÎ Object Detection (»çÁø ¹× ¿µ»ó¿¡¼­ »ç¶÷, ÀÚµ¿Â÷, µ¿¹° µî ´Ù¾çÇÑ Á¾·ùÀÇ ¿ÀºêÁ§Æ®¸¦ °ËÃâÇس»´Â Computer Vision ÀÀ¿ë) ¿¹Á¦¸¦ ÅëÇØ, Á» ´õ º¹ÀâÇÏ°í ½ÇÁ¦ÀûÀÎ È°¿ë ¹æ¹ýÀ» °­ÀÇÇÑ´Ù.

¾à·Â
2015 - ÇöÀç : Intel Photography Vision and Applications Team
2014 - 2015 : »ï¼ºÀüÀÚ ¿µ»óµð½ºÇ÷¹ÀÌ »ç¾÷ºÎ
2014 : POSTECH ÄÄÇ»ÅÍ°øÇÐ ¹Ú»ç


[´Ù¿î·Îµå] »çÀü Áغñ »çÇ×

¢º  µö·¯´× ±¸ÇöÀÇ ÀÌ·Ð ¹× ½ÇÁ¦
 
°­»ç
±èÀÎÁß ±³¼ö(Çѵ¿´ëÇб³)

³»¿ë
¼ö³â ÀüºÎÅÍ µö·¯´×Àº ´Ù¾çÇÑ ºÐ¾ß¿¡¼­ Ź¿ùÇÑ ¼º´ÉÀ» º¸À̸ç ÀΰøÁö´É ¸Ó½Å·¯´× ºÐ¾ß¿¡¼­ °¡Àå Áß¿äÇÑ ¹æ¹ý·ÐÀÌ µÇ¾ú´Ù. µö·¯´×ÀÇ ±âº» °³³ä ¹× ¿ø¸®¿¡ ´ëÇؼ­´Â ¸¹Àº ÀÚ·á°¡ °ø°³µÇ¾î ÀÖÀ¸³ª, ½ÇÁ¦·Î µö·¯´× ¿£ÁøÀ» ±¸ÇöÇÏ´Â °ÍÀº º¹ÀâÇÏ°í ½Ã°£ÀÌ ¸¹ÀÌ ¿ä±¸µÇ´Â ÀÛ¾÷ÀÌ´Ù. ƯÈ÷, µö·¯´× ³í¹®µéÀº ±¸Çö¿¡ ´ëÇÑ ÀÚ¼¼ÇÑ ³»¿ëÀ» »ý·«ÇÏ´Â °æ¿ì°¡ ¸¹¾Æ¼­ µö·¯´× ÀÌ·ÐÀÌ ½ÇÁ¦·Î ¾î¶»°Ô ±¸ÇöµÇ´ÂÁö ÀÌÇØÇϱ⠽±Áö ¾Ê´Ù. º» °­ÀÇ¿¡¼­´Â CNNÀ» ºñ·ÔÇÑ µö·¯´×¿¡ »ç¿ëµÇ´Â LeCunÀÇ Back-Propagation ¾Ë°í¸®ÁòÀÌ ÀüÅëÀûÀÎ MLP ÇнÀ ¾Ë°í¸®Áò°ú ´Ù¸¥Á¡À» ¼³¸íÇÏ°í, À̸¦ ½ÇÁ¦·Î ±¸ÇöÇÏ´Â ¹æ¹ýÀ» ¼Ò½º ÄÚµå ¿¹Á¦¿Í ÇÔ²² ¼³¸íÇÑ´Ù. ¸ÕÀú CPU¸¦ ÀÌ¿ëÇÑ ½Å°æ¸ÁÀÇ ±¸ÇöÀ» ¼³¸íÇÑ ÈÄ GPU¸¦ ÀÌ¿ëÇØ ½Å°æ¸ÁÀ» °¡¼ÓÇÏ´Â ¹æ¹ýÀ» °£´ÜÈ÷ ¼Ò°³ÇÑ´Ù.

¾à·Â
2012 : U.C. Irvine ¹æ¹® ±³¼ö
2006 - ÇöÀç : Çѵ¿´ëÇб³ Àü»êÀüÀÚ°øÇкΠ±³¼ö
2001 - 2006 : (ÁÖ)ÀÎÁö¼ÒÇÁÆ® Ã¥ÀÓ¿¬±¸¿ø
1990 - 2001 : KAIST Àü»êÇаú ¹Ú»ç