본문 바로가기

Paper Review/Image Classification10

[논문 리뷰] DenseNet: Densely Connected Convolutional Networks (2017) paper: https://arxiv.org/pdf/1608.06993 Abstract 최근 연구들은 CNN모델이 더 깊고 더욱 정확한 성능을 낼 수 있는 방법에 대해서 input layer와 output layer가 direct로 연결될 수 있는 shorter connection 개념에 집중하여 효율적으로 학습하는 형식으로 발전하고 있다.ResNet의 영향이 컸다고 생각된다. 본 논문에서는 모든 layer들을 연결하는 단순한 패턴의 모델 구조를 제안했다.기존의 CNN 모델들은 L개의 layer가 있을 때 L개의 연결이 있었던 반면에, DenseNet은 각 layer가 그 후속 layer들과 연결되어 총 $\frac{L(L+1)}{2}$개의 연결이 생긴다. (= direct connection) 즉, .. 2024. 7. 30.
[논문 리뷰] VGGNet: Very Deep Convolutional Networks For Large-Scale Image Recognition (2014) Paper: https://arxiv.org/pdf/1409.1556 Abstract 본 연구의 초점은 CNN의 깊이와 large-scale 이미지 데이터셋에 대한 정확도 성능이었다고 한다. 그중에서도 메인 아이디어는 Conv layer에서 3x3 filter를 사용하는 것이었고 이것이 16, 19층의 layer를 쌓으면서 굉장한 성능을 낼 수 있었다고 한다. 또한 이런 성과들로 다른 데이터셋에서도 일반화 시킬 수 있는 결과를 얻었다고 한다.1. Introduction 이전 모델들과는 달리 CNN의 depth에 중점을 두어 연구를 진행하였다. 이때, 모든 layer에 3x3 filter를 동일하게 적용한채로 Conv layer를 점차 추가하여 네트워크의 깊이를 증가시켰다. 2. ConvNet Config.. 2024. 7. 29.
[논문 리뷰] ResNet: Deep Residual Learning for Image Recognition (2016) Paper: https://arxiv.org/pdf/1512.03385.pdf CNN을 깊게 쌓는 것은 이미지 분류 분야에서 중요한 문제이다. 실제로, CNN 모델을 사용하여 학습을 하고 난 후에는 low / mid / high level의 feature들이 layer가 깊어짐에 따라서 추출이 되고 layer가 깊어진다 것은 feature들의 level 또한 풍부해질 수 있다는 것을 뜻한다. 그렇다고 layer를 단순히 깊게 쌓기만 한다고 성능이 무작정 올라가는 것은 아니다. 대표적으로 gradient vanishing / exploding같은 문제가 있기 때문이다.그럼에도 ResNet은 VGGNet보다 8배 깊은 152층을 쌓았음에도 성능은 올라가면서 복잡도는 감소한 성과를 보여줬다. Degradat.. 2024. 5. 16.
[논문 리뷰] GoogLeNet(Inception V1): Going deeper with convolutions (2014) Paper: https://arxiv.org/pdf/1409.4842.pdf GoogLeNet은 ILSVRC 2014에서 top-5 error 6.67%로 우승을 차지한 모델이고 22층으로 모델을 VGG-19보다 더 깊게 쌓음으로써 성능을 개선하려고 하였다. 또한, 1x1 Convolution과 Inception module 그리고 FC Layer 대신 Globla Average Pooling이 사용되었다는 점을 눈여겨 볼 수 있다.Architecture GoogLeNet은 합곱 연산 횟수를 15억 번 이하로 유지하도록 지정하여 단순히 학문적인 호기심으로 끝나는 것이 아닌, 합리적인 비용으로 대규모 데이터셋에서도 실사용이 가능하도록 설계하였다. 계산량을 줄이기 위해 사용된 방법 중 1x1 Convolu.. 2024. 5. 16.