Jaeyun's Blog

For deep learning


  • 홈

  • 카테고리

  • 태그

  • 아카이브

  • About

  • 검색

You Only Search Once (YOSO)

작성일 2019-01-24 | In Deep Learning |
AutoML 관련 논문 리뷰입니다. 기존 NAS(Neural Architecture Search)들이 강화학습이라면 여기선 NAS에 다른 방식의 optimization 방법(DSO)을 결합한 새로운 AutoML 접근법을 제안하고 있습니다. AutoML 분야에서는 최초로 이미지넷 데이터에 적용했다고 합니다.
Read more »

A Style-Based Generator Architecture for GANs - 2

작성일 2019-01-16 | In Deep Learning |
2018년 12월에 나온 GAN의 generator 구조 관련 논문입니다. 기존 GAN의 generator(생성기)들의 한계점을 극복하고 한단계 더 나아갈 수 있는 방향을 제시하였습니다. 실험 결과와 어떻게 GAN의 한계를 극복했는지 그 배경에 대해 알아보도록 하겠습니다.
Read more »

A Style-Based Generator Architecture for GANs - 1

작성일 2019-01-14 | In Deep Learning |
2018년 12월에 나온 GAN의 generator 구조 관련 논문입니다. 기존 GAN의 generator(생성기)들의 한계점을 극복하고 한단계 더 나아갈 수 있는 방향을 제시하였습니다. 생성기의 구조를 어떤 식으로 바꿨는지 살펴보도록 하겠습니다.
Read more »

Recurrent World Models Facilitate Policy Evolution(World Models) - 2

작성일 2019-01-09 | In Deep Learning |
2018 Nips oral presentation으로 발표된 구글 브레인 논문입니다. 뇌인지과학 개념을 적용하여 강화학습 과제를 해결하였습니다. 적용한 방식도 굉장히 훌륭하지만 결과도 해당 task들의 SOTA를 찍어버린 놀라운 결과를 보여주고 있습니다. 실험 결과와 해석 그리고 논문에서 제안하는 'dream' 방법에 대한 포스트입니다.
Read more »

Recurrent World Models Facilitate Policy Evolution(World Models) - 1

작성일 2019-01-08 | In Deep Learning |
2018 Nips oral presentation으로 발표된 구글 브레인 논문입니다. 뇌인지과학 개념을 적용하여 강화학습 과제를 해결하였습니다. 적용한 방식도 굉장히 훌륭하지만 결과도 해당 task들의 SOTA를 찍어버린 놀라운 결과를 보여주고 있습니다. 이번 포스트에선 모델의 전체적인 구조에 대하여 다루도록 하겠습니다.
Read more »

SENet(Squeeze and excitation networks)

작성일 2018-07-18 | In Deep Learning |
2017 이미지넷 챌린지(ILSVRC 2017)에서 우승한 SENet입니다. 피쳐맵의 압축(squeeze)과 재조정(recalibration)을 통한 스케일이 핵심인 방법론입니다.
Read more »

SQEEZENET(모델 압축)

작성일 2018-05-26 | In Deep Learning |
딥러닝의 발달로 분류 정확도가 매우 좋아졌습니다. 하지만 반면급부로 모델의 복잡도 또한 그만큼 증가하게 되었습니다. 이에 따라 모델의 파라미터수와 크기를 줄이면서 정확도를 최대한 유지하고자 하는 연구들도 발전하게됩니다.
Read more »

ENAS(Efficient Neural Architecture Search via Parameter Sharing)

작성일 2018-03-15 | In Deep Learning |
딥러닝으로 딥러닝 구조를 학습할 수 없을까? - 이런 기발한 발상에서 출발해서 나온게 AutoML입니다. 이번 포스트에서는 딥러닝으로 딥러닝 구조를 학습하는 방법에 대해 알아보도록 하겠습니다.
Read more »

Siamese Neural Networks for One-shot Image Recognition(샴 네트워크)

작성일 2018-02-06 | In Deep Learning |
딥러닝에서 네트워크를 학습시킬 때, 매우 많은 트레이닝 데이터가 필요합니다. 이러한 단점을 극복하여 한 레이블 당 하나의 이미지만 있어도 분류할 수 있게 학습시키는게 one-shot learning입니다.
Read more »

k-최근접이웃 기반 이상치 탐지(k-NN based Novelty Detection)

작성일 2018-01-29 | In Novelty Detection |
이전까지는 밀도 기반 이상치 탐지 기법들에 알아보았다면 이번에는 거리 기반 이상치 탐지 기법 중 가장 기본적은 k-근접이웃 기반 이상치 탐지에 대하여 알아보겠습니다.
Read more »

Born Again Neural Networks

작성일 2018-01-27 | In Deep Learning |
이미 학습된 네트워크의 지식(?)을 다른 네트워크로 옮기면 굉장히 쉽게 다른 모델 학습이 가능해집니다. 이번에는 BAN(Born Again Neural Networks)라는 방법으로 다른 구조의 모델을 학습 시키는 방법에 대해 알아보겠습니다.
Read more »

Globally and Locally Consistent Image Completion(이미지 복구)

작성일 2018-01-05 | In Deep Learning |
GAN을 활용한 많은 연구들이 있지만 그 중에 굉장히 흥미로운 연구 결과가 있습니다. 이미지의 특정 부분을 지워도 자동으로 원복해주는 딥러닝을 활용한 image completion 기법입니다.
Read more »

WESPE (Weakly Supervised Photo Enhancer for Digital Cameras)

작성일 2017-12-14 | In Deep Learning |
저가형 가벼운 사진기로 사진을 찍으면 만족스럽지 못한 품질의 사진밖에 나오지 않습니다. 하지만 그렇다고 DSLR을 들고다니자니 무겁고 거추장스러운게 사실입니다. 이번 논문에서는 저품질의 사진을 고품질로 바꿔주는 딥러닝 모델에 대해 알아보도록 하겠습니다.
Read more »

생성 모델(Generative model)

작성일 2017-12-08 | In Semi-supervised Learning |
이번에는 준지도학습(semi-supervised learning) 방법 중 하나인 생성 모델(generative model)에 대하여 알아보도록 하겠습니다. 클래스의 분포에 주목하는 방법 중 하나입니다.
Read more »

셀프 트레이닝(self training)

작성일 2017-12-07 | In Semi-supervised Learning |
준지도학습(semi-supervised learning) 방법중에서 가장 간단한 셀프 트레이닝(self training)에 대하여 알아보도록 하겠습니다. 높은 확률값이 나오면 가중치를 주는 간단한 방식으로 손쉽게 모델의 성능 향상을 꾀할 수 있는 테크닉입니다.
Read more »

Semi-supervised Learning(준지도학습) - Overview

작성일 2017-12-04 | In Semi-supervised Learning |
머신 러닝(machine learning) 방법론들 중 교사 학습(supervised learning) 모델들은 정답 데이터가 꼭 있어야만 학습이 가능하다는 단점이 있습니다. 이러한 단점을 극복하기 위해 준지도 학습(semi-supervised learning)에 대해 살펴보도록 하겠습니다.
Read more »

캡슐 네트워크(캡스넷 - Capsnet) - 3

작성일 2017-11-29 | In Deep Learning |
캡스넷(CapsNet)에서 margin loss와 reconstruction method를 활용한 정규화로 어떻게 로스를 전파하는지 살펴보고 실험 결과에 대해 알아보겠습니다. MultiMNIST 데이터셋 결과와 다이나믹 루팅(dynamic routing)의 iteration 적정 횟수를 정한 과정에 대해서도 알아봅시다.
Read more »

캡슐 네트워크(캡스넷 - Capsnet) - 2

작성일 2017-11-28 | In Deep Learning |
이번 포스트에서는 캡스넷(CapsNet)의 구조에 대해 알아보겠습니다. 다이나믹 루팅(Dynamic routing)을 통해 어떻게 캡슐(capsule)을 업데이트하고 기존 CNN구조와는 어떤 점이 다른지 살펴봅시다.
Read more »

캡슐 네트워크(캡스넷 - Capsnet) - 1

작성일 2017-11-28 | In Deep Learning |
기존 CNN 네트워크 구조로 이미지 인식 분야에서 놀라운 성과를 이뤄냈습니다. 하지만 이러한 CNN 구조의 취약점을 공격하며 캡스넷(Capsnet)이라는 새로운 네트워크 구조가 나오게 됩니다. 논문 저자이자 딥러닝의 아버지인 제프리 힌튼(geoffrey hinton)은 다이나믹 루팅(Dynamic routing)을 사용하여 CNN의 문제점을 극복하는 방법을 제시합니다. 이번 포스팅에서는 CNN에서 풀링(pooling, sumbsampling)의 문제점이 무엇인지 알아보고 이를 캡스넷(CapsNet)의 전반적인 특징에 대해 알아보도록 하겠습니다.
Read more »

로컬 아웃라이어 팩터(Local Outlier Factors)

작성일 2017-11-10 | In Novelty Detection |
오브젝트 근처에 있는 데이터들의 밀도까지 고려하는 로컬 아웃라이어 팩터(Local outlier factor)입니다. 근처 데이터의 밀도까지 고려하는 모델로서 다른 방법론들이 해당 데이터만 고려한다면 이 방법은 근처 데이터까지의 거리와 밀도까지 상대적으로 고려해줍니다.
Read more »

커널 밀도 추정(Kernel density estimation) - Parzen window density estimation

작성일 2017-11-08 | In Novelty Detection |
다른 밀도 추정법들이 데이터가 특정 분포를 따른다는 가정 하에 추정하는 방법이었습니다. 하지만 이번에 설명할 커널 밀도 추정은 데이터가 특정 분포를 따르지 않는다는 가정 하에 밀도를 추정하는 방법입니다. 커널 밀도 추정의 기본적인 개념을 알아보고 대표적인 그 중 파젠 윈도우 밀도 추정(Parzen window density estimation)에 대해 알아보겠습니다.
Read more »

혼합 가우시안 밀도 추정법(Mixture of Gaussian Density Estimation)

작성일 2017-11-03 | In Novelty Detection |
밀도 기반 이상치 탐지법(Density based novelty detection) 중에서 여러개의 가우시안 분포를 따른다는 가정 하에 탐지하는 혼합 가우시안 밀도 추정법(Mixture of Gaussian density estimation)에 대해 알아보도록 하겠습니다.
Read more »

가우시안 밀도 추정법(Gaussian density estimation)

작성일 2017-11-02 | In Novelty Detection |
이상치 탐지 기법에도 여러가지 방법이 있습니다. 그 중에서 밀도 기반 이상치 탐지법(Density based novelty detection)을 앞으로 몇 개 소개해 드릴텐데요, 가장 먼저 가우시안 밀도 추정법(Gaussian density estimation)에 대해 설명드리겠습니다.
Read more »

A simple neural network module for relational reasoning - 2

작성일 2017-10-19 | In Deep Learning |
이번 포스트에서는 RN(Relation Network)이 어떤 방식으로 관계 추론에서 큰 강점을 가지고 있는지 네트워크 구조를 통해서 살펴보도록 하겠습니다. 네트워크 자체는 MLP로 매우 단순하지만 적용하는 object set를 잘 지정해서 놀라운 효과를 거두게 됩니다. 사람보다 더 뛰어난(super-human) 성능을 어떻게 만들어 냈는지 확인해 봅시다.
Read more »

A simple neural network module for relational reasoning - 1

작성일 2017-10-19 | In Deep Learning |
딥러닝이 이미지 분류, 오브젝트 탐지 등에서는 큰 발전을 이루었지만 추론 부분에서는 아직 인간을 따라잡지는 못한 상황이었습니다. 하지만 관계 추론 부분에서도 큰 성능을 내는 RN(Relation Networks)이 등장합니다.
Read more »

Novelty Detection(이상치 탐지) - Overview

작성일 2017-10-18 | In Novelty Detection |
이 카테고리에서 앞으로 다룰 이상치 탐지(Novelty Detection)기법들에 대해 자세히 알아보기 전 과연 이상치 탐지란 무엇인가에 대해 간단히 살펴보도록 하겠습니다.
Read more »

DenseNet(Densely connected Convolutional Networks) - 3

작성일 2017-10-16 | In Deep Learning |
DenseNet의 실험 설계, 결과 등에 대해 알아봅시다. 네트워크 구조에 획기적인 변화를 가져온 만큼 실험 결과 또한 놀라울 정도로 좋은 성능을 보여줍니다. 세 가지 데이터셋을 사용하여 실험 한 결과 모두 SOTA(State-Of-The_Art)의 성능이 나옵니다. Dense block 내부에서 필터를 거침에 따라 피쳐 맵의 가중치들이 어떻게 변하는지도 살펴봅시다.
Read more »

DenseNet(Densely connected Convolutional Networks) - 2

작성일 2017-10-15 | In Deep Learning |
DenseNet의 전반적인 특징을 살펴봤다면 이제 네트워크 구조에 대해 자세히 살펴봅시다. ResNet과 가장 큰 다른 점은 피쳐 맵을 더해주는게 아닌 쌓아가는 과정을 거친다는 것입니다. 배치 노말라이제이션, ReLU 순서 그리고 모델의 하이퍼파라미터인 growth rate k에 대해서도 알아봅시다. 역시나 DenseNet에서도 계산 복잡성을 줄이기 위해 bottleneck 구조를 사용합니다.
Read more »

DenseNet(Densely connected Convolutional Networks) - 1

작성일 2017-10-13 | In Deep Learning |
최근 image classification 딥러닝 네트워크 아키텍쳐를 보면 큰 진전이 없었습니다. 거의 기술적인 부분에서만 개선이 이루어지던 중 2017 CVPR 컨퍼런스에서 네트워크 구조에 획기적인 변화를 주는 연구 결과가 발표됩니다. 이 네트워크의 이름이 Densely connected Convolutional Networks입니다.
Read more »

블로그 시작

작성일 2017-10-12 | In Daily |

블로그에 본격적으로 포스팅을 시작합니다. 누구에게 보여준다는 목적보다는 제가 공부한 것을 정리하는 공간으로 활용할 예정입니다.

Read more »
정재윤

정재윤

AI Center, SKT

30 포스트
4 카테고리
24 태그
RSS
GitHub e-mail Linkedin DSBA Lab
© 2019 정재윤
Powered by Jekyll
Theme - NexT.Mist