내 맘대로 Introduction이전에 FeatUp이라는 논문을 보고 모델마다 새학습, 샘플마다 새학습 문제로 범용성이 매우 떨어진다고 생각하고 말았는데, 범용성을 개선한 버전이 나왔다. 래퍼런스 논문들을 보니 이 foundation feature 해상도를 높이는 연구가 간간히 되어왔던 것 같긴 하다. 컨셉은 아주 간단하고 어찌보면 가장 쉽게 생각할 수 있는 방식인 것 같다. 구조를 어떤식으로 썼는지와 학습을 안정적으로 한 것에 의미가 좀 더 있는 듯. 메모해상도, 모델따라 재학습을 최소화한게 장점. 그림이 설명을 너무 잘해서. 그럼보면 끝.고해상도에서 feature 뽑고 crop한거랑저해상도에서 feature 뽑고 upsample 한거랑 같도록 함. cossim + l2로 학습구조적 핵심은 local ..