최근 포스트

Generic-to-Specific Distillation of Masked Autoencoders (CVPR 2023)

09/05/2023   Paper Review

1 분 소요

Vision transformers (ViTs)는 self-supervised learning 방식으로 대량의 데이터셋을 학습했을 때, 높은 성능으로 주목받았습니다. Pixels, tokens, features 재구성을 학습하는 masked image modeling (MIM)은 ...

취득한 RGB-NIR 데이터셋에 대한 검증

08/29/2023   Deep Learning

2 분 소요

연구실 내에서 자체적으로 취득한 데이터셋을 검증했습니다. 취득한 데이터셋은 NIR-to-RGB와 RGB-to-NIR conversion 연구에 사용됩니다. Public 데이터셋을 사용하지 않고 자체적으로 데이터셋을 취득하는 이유는 다양합니다. 데이터셋을 직접 취득하면, task에 ...

Image Data Augmentation for Deep Learning: A Survey (arXiv 2022)

08/26/2023   Paper Review

1 분 소요

Image data augmentation은 딥러닝 모델의 상용화를 위해 학습 데이터의 양과 다양성을 늘려줄 수 있는 중요하고 필수적인 방법입니다. 이 방법은 크게 basic과 advanced 접근법으로 구분할 수 있습니다.

학습용 데이터셋 구축 안내서

06/09/2023   Deep Learning

최대 1 분 소요

데이터 구축 프로세스: 데이터 획득 → 데이터 검사 → 데이터 정제 데이터 획득: 대상지 선정 → 빛의 양(조도) 확인 → 촬영 수행 데이터 검사: saturate 여부 확인하여 saturate가 되면 해당 이미지 배제, 화질이 불량하거나(흔들림, 초점 불일치 등), ...

MaxViT: Multi-Axis Vision Transformer (ECCV 2022)

06/01/2023   Paper Review

2 분 소요

본 논문에서 제안하는 ‘Multi-axis self attention(Max-SA)’은 새로운 종류의 트랜스포머 모듈입니다. 이 모듈은 blocked local과 dilated global 어텐션으로 구성됩니다. 모듈 내에서 지역적 및 전역적 공간 상호작용을 수행할 수 있습니다.

Distillation-Guided Image Inpainting (ICCV 2021)

06/01/2023   Paper Review

2 분 소요

최근 딥러닝을 이용한 이미지 복원 기술에서 image inpainting 태스크의 성능이 크게 향상되었습니다. 하지만 이러한 기술은 hole 영역에 왜곡된 구조나 균일하지 않은 텍스처를 생성하는 문제가 있습니다. 이는 encoder 레이어의 missing region에 대한 emb...