본문 바로가기

전체 글

(25)
How to use Graduate Writing Center Resources at UCLA Hello, This is Wooyeong, Zacker and Zheng taking ESL300 course at UCLA. In this video, we would like to introduce how to use the graduate writing center at our campus. A number of international students basically write a lot of articles and papers related to their major and research. However, most of them don't know how to do their writing effectively since they are not familiar with writing wit..
A Fourier Perspective on Model Robustness in Computer VisionDong (Neurlps 2019) Abstract (뭐하는 논문?) Data augmentation 방법에 trade-off가 존재 => Fourier 관점에서 해석 => A type에 대한 corruption에 대해 robustness를 늘려주면, B type에 대한 corruption에 대해 퍼포먼스가 감소 => 최근 Gaussian data augmentation, adversarial training 방법이 high frequency의 정보를 가진 corruption[noise, blurring]에 대한 성능 개선을 하는 것을 관찰 (low frequency 에 대한 corruption[constrast]에 대해서는 robustness 성능이 떨어짐)(실험적으로 알아냈다고는 말함) 본 trade-off 완화를 위해 data aug..
Unsupervised Scale-consistent Depth Learning from Video (IJCV 2021) Experiments [Network arch] DepthNet => single RGB image as input, outputs inverse depth map. Network arch. : ResNet50 backbone, DispNet, sigmoid and ELU PoseNet: ResNet18 backbone, two images as input, outputs 6-DOF parameters Image augmentation : random scaling, cropping, horizontal flipss Optimizer: ADAM, lr = 0.0001, alpha = 1.0, beta = 0.1, r = 0.5 in Total Objective function Pretrained Netw..
TartanVO: A Generalizable Learning-based VO (arxiv 2021) Abstract Domain generalization의 first learning-based visual odometry up-to-scale loss function을 제안 - monocular VO의 고질적인 문제인 scale ambiguity를 커버 camera intrinsic parameter를 모델에 포함 Introduction 왜 learning based 모델이 geometry-based method를 이기지 못할까? 기존 learning based method들은 1) data의 diversity에 약해서 이다. 2) well-formulated geometry knowledge를 무시해서이다. Introduction 1) data diversity on the generalizatio..
Multi-Frame GAN: Image Enhancement for Stereo Visual Odometry in Low Light (MLR 2020) Abstract 밝은 이미지에 대한 Pair data없이 어두운 이미지에서 밝은 이미지를 만들어낼 수 있는 Multi-frame GAN을 제안 그 와중 coherent geometric cue를 translate하는 도중 보존하기 위하여, novel network와 loss function을 제안 Method Loss function
Self-Challenging Improves Cross-Domain Generalization (ECCV 2020) Abstract out-of-distribution에 대해 robust하게 동작하는 Representation Self-Challenging (RSC) 제안 training data에 대해 학습할 때, dominantly activated되는 features를 버리고, 남은 feature들로 activate하도록 만든다. 본 방법은 extra network parameter의 도입 없이 out-of-distribution에도 잘 동작하는 것을 보인다. 본 논문에서는 theoretical properties와 RSC가 잘 동작하기 위한 조건을 present한다. 실험적으로 본 방법이 효과가 있음을 보였다. Introduction cat과 dog의 차이를 학습하는 어린 아이의 예시를 들어줌 => 어린 아이에..
Learning to Generate Novel Domains for Domain Generalization(ECCV2020) Abstract Unseen data들에 대해 generalizable model을 만들기 위해 training domain의 diversity를 높이기 위한 노력! Data generator를 통해 pseudo-novel domain을 만들고 distribution 간의 distance를 크게 만들지만, 한편 semantics 정보를 보존하기 위해 cycle-consistency and classification loss를 generator에 사용하였다. Introuduction Source domain의 diversity를 늘리는 것에 초점 => generator를 통해 만들어낸 pseudo-novel domain을 training set에 합쳐서 학습을 시키겠다. *간단한 method 설명 1) s..
Progressive Domain Expansion Network for Single Domain Generalization (CVPR 2021) Abstract Single domain Generalization: 하나의 domain으로 학습하여, 다른 domain에 대해 test할 때 적용. Problem: Agnostic Domain generalization을 하기 위한 safety(containing domain invariant information) and effectiveness(containing various unseen domain-specific information) constraints가 부족하다. Solution: PDEN(Progressive Domain Expansion Network)를 설계하여 해결해보겠다. + contrastive learning PDEN은 2개의 subnetwork로 구성 (domain expa..