본문 바로가기

Computer Vision6

[Computer Vision_Lecture 2.1] Image Formation (1) 이 글은 RWTH AACHEN UNIVERSITY에서 Bastian Leibe 교수님의 Computer Vision 강의를 듣고 정리한 글입니다. 모든 이미지의 저작권은 해당 강의자료에 있으며, 개인적으로 수업을 듣고 공부한 내용으로 정확하지 않은 내용이 있을 수 있습니다! (Lecture 1 강의는 Introduction으로 Computer vision을 배워야하는 이유와 앞으로의 해결 과제들에 대한 내용을 다루셔서 따로 정리하지는 않음!) 이번 강의에서는 우리가 접하는 모든 이미지가 어떻게 생성되었으며, 그러한 생성과정에 있어서 어떠한 parameter들이 중요한 영향을 끼치는지 공부했다. (수리적으로 하나하나 자세하게 이해하기보다는, 전체적인 원리와 관계 위주로 설명해주심) Camera Obscur.. 2022. 8. 31.
[Style Transfer] Image Style Transfer Using Convolutional Neural Networks 논문/개념 정리 오늘 정리한 내용은 스타일 트랜스퍼에 관한 내용입니다. 참고한 자료들은 하단의 [참고자료]에 기재하였습니다. Transfer Learning 이러한 스타일 트랜스퍼를 이해하기 위해서는 전이학습이라는 개념이 우선되어야 해서 간단히 어떤 개념인지 살펴봐야한다. 우선 앞에서 살펴봤던 cnn구조를 recall해보면 위의 그림과 같은데, 이러한 cnn 구조를 이용해 학습시키는 과정을 다시 짚어보면, 다음과 같이 0에서 9까지의 숫자를 나타내는 흑백이미지인 MNIST 손글씨 데이터를 99%이상 인식하기 위해서는 보는 것과 같이 3개의 CONvolution층과 한 개의 완전연결층 즉 fully connected층이 필요했고 전체 학습에 소요되는 시간은 CPU 1개인 환경에서 약 1시간정도 걸리게 된다. 하지만 MNI.. 2021. 11. 30.
[LSGAN] Least Squares Generative Adversarial Netorks 논문 정리 이번에는 LSGAN 논문에 사용된 핵심 아이디어와 원리에 대해 정리한 글이다. 기본 아이디어는 GAN에 있기 때문에 내용은 길지 않다. LSGAN 등장배경: Cross-Entropy의 vanishing gradient problem 기존의 WGAN을 제외한 DCGAN이나 cGAN과 같은 모델들은 Discriminator의 손실함수로 binary cross-entropy를 사용해 min-max game문제를 해결한다. 먼저 기존의 Entropy식을 다시한번 살펴보면 다음과 같다. 엔트로피는 정보량에 대한 기댓값이며 동시에 사건을 표현하기 위해 요구되는 최소 평균 자원이라고 할 수 있다. (자세한 설명은 Entropy 글 참고) 따라서 위와 같은 식으로 나타낼 수 있다. 이어서 cross entropy는 t.. 2021. 4. 21.
[CycleGAN] Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks 논문 리뷰 이번에 정리할 논문은 바로 Unparied Image-to-Image Translation using Cycle-Consistent Adversarial Networks라는 논문이다. 이 논문에서는 Cycle GAN으로 잘 알려진 모델을 소개하고 있다. (Cycle GAN에 대해서 공부하기 전에 pix2pix 논문을 공부하면 많이 도움이 된다!) 그럼 이제부터 cycle GAN이 뭘하는 친구인지 살펴보도록 하자. Cycle GAN 이란? 일단 간단히 CycleGAN이 무엇을 하는 친구인지 예시들을 통해서 살펴보자. 지난 시간에 발표를 했던 GAN이라는 모델은 어떤 데이터 분포를 입력받아 실제에 가까운 데이터를 생성하는 모델이었다. 따라서 GAN은 input image와 output image간의 연관성에.. 2021. 4. 15.