논문9 [논문 리뷰] YOLO (You Only Look Once:Unified, Real-Time Object Detection) You Only Look Once: Unified, Real-Time Object Detection Abstract 이전 연구에서는 Classifier를 따로 만들어서 사용하는 2 Stage 모델을 흔히 사용하였다. 이 논문에서는 Box Regression과 Class의 확률 예측을 동시에 수행하는 방법을 제안한다. 하나의 Network로 진행되기 때문에 논문의 이름처럼 한 번만 모델을 거치면 위치와 Class를 모두 알 수 있게 되는 것이다. 이 모델 구조의 장점은 빠르다는 것인데, 45 FPS를 보였고, Fast YOLO의 경우 155 FPS를 보였다. 심지어 정확도 측면에서 다른 모델과 비슷한 mAP를 보였다. 1. Introduction 사람의 경우 사진을 보자마자 빠르고 정확하게 물체의 위치와 .. 2022. 9. 14. [논문 리뷰] Faster R-CNN Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks Abstract 이 당시 Object Detection을 수행하는 SOTA 모델들은 모두 물체의 위치를 찾기 위해 Region Proposal Algorithm을 사용하였다. SPPnet이나 Fast R-CNN은 Region Proposal 계산을 Bottleneck으로 생각하여 이를 줄이는 방법으로 Running time을 줄였다. 이 논문에서는 RPN을 소개한다. 이는 Fully Convolution Network이며, 물체의 경계와 확률 값을 픽셀 단위로 예측한다. 이를 Fast R-CNN과 합쳐서 하나의 Network로 만들었다. RPN은 요즘 트렌드인 At.. 2022. 9. 2. [논문 리뷰] U-Net: Convolutional Networks for Biomedical Image Segmentation U-Net: Convolutional Networks for Biomedical Image Segmentation Abstract 딥러닝 네트워크의 경우에 Sample에 대한 의존도가 크다. 이 연구에서도 Data Augmentation 학습 방법을 소개하고, U-Net이라는 네트워크를 소개한다. U-Net은 2개의 Part로 나뉠 수 있는데, Context를 파악하는 Contracting Path와 Localization의 정확도를 올려주는 Expanding Path이다. 이 두 가지 Path는 서로 대칭적으로 존재한다. 이 모델의 경우 아주 적은 Sample로도 학습이 잘 되었고, ISBI Challenge에서 이전 우승 모델보다 높은 성능을 보였다. 1. Introduction 본 논문에서는 CNN.. 2022. 8. 22. [논문 리뷰] ResNet Deep Residual Learning for Image Recognition Abstract 모델이 깊어질수록 학습을 하는 것도 더 어려워진다. 이를 해결하기 위해 이 논문에서는 Residual Learning Framework를 소개한다. 이를 통해 모델의 깊이가 깊어지면서 정확도도 상승하게 되었다. 152개의 Layer를 쌓았음에도 VGG보다 복잡도가 낮았다. ImageNet Dataset에 대해서 3.57% Error를 달성하며 ILSVRC 2015 Classification Task에서 1등을 차지하였다. 1. Introduction 딥러닝 모델은 Image Classification에 돌파구를 마련했다. 모델의 Layer수가 증가할수록 학습할 수 있는 Feature가 달라지게 된다. 그렇기 .. 2022. 8. 15. [논문 리뷰] Positional Encoding as Spatial Inductive Bias in GANs Positional Encoding as Spatial Inductive Bias in GANs Abstract SinGAN과 같은 translation invariant convoluitional generator가 어떻게 전반적인 구조를 잡는지 생각해보게 된다. 이 논문에서는 SinGAN과 SinGAN2가 zero padding으로부터 implicit position information을 얻는 것을 보여준다. 이러한 position encoding은 이미지를 생성할 때 필수 요소이다. 그리고 이것은 SinGAN 뿐만 아니라 DCGAN, PGGAN에서도 마찬가지이다. 또한, zero padding은 unblanced spatial bias를 제공한다. 이를 해결하기 위해 여기서는 다른 몇 가지 방법을.. 2021. 9. 7. [논문 리뷰] Position, Padding and Predictions: A Deeper Look at Position Information in CNNs Position, Padding and Predictions: A Deeper Look at Position Information in CNNs Abstract CNN은 fully connected networks에 비해 엄청난 성능을 보여주었다. 이 논문에서 정확한 위치 정보를 갖고 있는지 실험한다. 최적의 위치 정보를 encode 하는 방법은 무엇인지 확인하고, 위치 정보가 semantic representations에 어떤 영향을 끼치는지 확인한다. 위치 정보가 항상 성능을 개선시키는지 확인한다. 결과적으로 위치 정보가 도움이 될 수도 있고 성능을 해칠 수도 있다는 것을 알게 된다. 1. Introduction Section 3까지 이전 논문에서 다뤘던 내용이기 때문에 간단하게 정리하도록 하겠다. .. 2021. 8. 5. 이전 1 2 다음