일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 백준 1325번
- 프로그래머스 67258번
- DeepLabv3+
- 프로그래머스 67256번
- 프로그래머스 72410번
- os 확인 명령어
- pytorch 이미지 확인
- 프로그래머스 42883번
- 프로그래머스 67257번
- 프로그래머스 42885번
- 프로그래머스 42839번
- 백준 효율적인 해킹
- MMdetection
- 프로그래머스 보석 쇼핑
- 카카오 보석 쇼핑
- jupyter 셀 추가 단축키
- vscode sftp
- Kullback-Leibler Divergence
- zip 압축해제 명령어
- gradient descent optimization
- jupyter 명령어 모드 단축키
- 프로그래머스 43164번
- object detection
- 가상환경 제거
- YOLO detection
- 가상환경 확인
- 원격서버 로컬 동기화
- Optimization algorithms
- augmentation 이후 이미지 확인
- 백준 3190번
- Today
- Total
목록분류 전체보기 (44)
소소한 블로그
지난 Object detection 경연에서는 MMDetection을 사용했습니다. * 참고 https://github.com/open-mmlab/mmdetection GitHub - open-mmlab/mmdetection: OpenMMLab Detection Toolbox and Benchmark OpenMMLab Detection Toolbox and Benchmark. Contribute to open-mmlab/mmdetection development by creating an account on GitHub. github.com MMDetection을 사용하고 있는 동안 생각보다 기존의 코드를 수정하고 싶을때나, 기존에는 없는 것을 새로 추가하고 싶을때가 많았습니다. 실제로 저는 기존 Mos..
▶ numpy.vstack input으로 들어오는 배열이 1차원이라면 (1,N)으로 차원을 변경하여 사용됨. 첫번째 axis를 기준으로 배열을 row wise하게 붙여줌. (따라서 첫번째 차원을 제외한 나머지 차원의 크기가 같아야한다. 예시로 1*2*3 크기의 배열과 2*2*3 크기의 배열은 np.vstack이 가능하지만, 1*2*3 크기의 배열과 2*2*4크기의 배열은 np.vstack이 불가능하다.)
새삼 교육이 시작된지 51일차라는 것이 놀랍네요. 이번 경연 주제는 Semantic segmentation입니다. 데이터 Annotation file은 COCO format과 동일하게 제공되었습니다. 본격적인 경연에 앞서 EDA를 하는 과정을 가졌고, 해당 코드를 개인 Github에 올렸습니다. 데이터 Annotation file이 COCO format과 동일하므로, 혹시 COCO format의 Semantic segmentation을 다루고 있다면 아래의 코드가 활용 가능할 듯 합니다. https://github.com/note823/coco_semantic_segmentation_format_eda/blob/main/eda.ipynb
제일 마지막 글의 업로드 날짜가 9월 27일이니깐 3주 넘게 업로드를 안했네요. 9월 27일이면 Object detection 경연 시작날짜였으니, 경연 시작이후에는 블로그에는 미처 신경쓰지 못했음을 알 수 있습니다. 이번 글은 미리 말하건데 정리안된 내용들이 아주 길게 뒤죽박죽 뒤섞일 예정입니다ㅎㅎ 제가 경연을 하면서 느낀점에 대해 부담가지지 않고 솔직히 이야기해볼 예정입니다. 정리된 내용은 이번 글을 업로드한 뒤 종류별(mmdetection사용법, 어떤 것을 구현했는지 등..)로 정리해볼 예정이에요. 경연 과정속에서의 내 생각과, 경연 막바지에서의 내 생각 솔직히 말하자면 이번 경연은 저에게는 스트레스였습니다. 내가 왜 이렇게 스트레스를 받을까 생각을 해봤는데 아래와 같더군요. '내가 팀으로 활동해서..
9주차에 진행되는 부스트캠프 경연은 Object Detection에 관해 다룹니다. 따라서 팀원들과 이와 관련한 논문을 읽어보기로 했고, 처음 다룰 논문은 YOLO로 정했습니다. YOLO 논문 링크 아래는 제가 논문을 읽고 이해한 바를 정리한 글입니다. YOLO와 기존 다른 모델과의 차이점, YOLO의 architecture, training 과정, 장단점, 등에 관해 소개하겠습니다. [기존 2 stage Object detection과 YOLO의 차이점] R-CNN과 같은 (논문이 나온 시점 기준으로) 최신 Object dectection 방법은 이미지 안에서 obejct가 존재할만한 region을 추출해내는 과정(region proposal)을 수행한 후에, 추출된 region proposal에서 c..
이번글은 VSCode에서 로컬 폴더와 원격서버 폴더를 동기화하는 방법에 대해 정리하겠습니다. 이를 생각하게 된 계기는 미니프로젝트를 해보려고 하는데 갑자기 아래와 같은 생각이 들었기 때문입니다. (접은글로 작성했습니다.) 더보기 '저번에 원격서버의 파일들을 백업해놓지 않은 상태에서 원격서버가 접속이 되지 않아 당황했는데, 원격서버와 로컬서버를 동기화하는 방법은 없을까. 원격서버에서 파일을 수정하여 저장하면 자동적으로 로컬에도 해당 파일이 저장되면 좋을텐데. 아니면 그 반대(로컬에서 파일을 수정하여 저장하면 원격에 자동적으로 저장됨)도 괜찮을 듯 하다. 이렇게 된다면 자동적으로 로컬에 원격서버 파일들이 백업되어 불가피하게 서버가 다운되었을 때를 대비할 수 있을 것 같다.' 그 후 구글링을 하여 동기화하는 ..
여기에서는 제가 지금 당장 단기적으로 어떻게 공부해야 하는지에 대해 정리해보는 시간을 갖도록 하겠습니다. 현재 저는 부스트캠프 AI Tech에 참여 중입니다. 벌써 7주차가 되었네요. 나름 기초 이론 지식이 있는 편이라고 생각했는데, 강의를 듣다 보면 모르는 내용들이 많이 등장하곤 합니다. 특히 Image Classfication부터 지금 배우고 있는 Panoptic Segmentation까지 CV쪽으로는 한번도 논문을 제대로 공부해본 적이 없다는 것을 몸소 체감하고 있습니다. 한 강의에 여러 논문이 등장하고 있는 형식이라, 하나하나 이해하고자 하면 정말 많은 시간이 들게 되는 것 같습니다. 저는 논문 읽는 속도가 빠르지 않아, 모든 논문을 읽고 싶다는 욕심과 강의 진도를 맞춰야 한다는 것 사이에서 큰 ..
Train datasets은 실제 데이터 분포를 설명하기에는 너무 제한적입니다. Augmentation은 Train datasets의 분포를 더 dense하게 만드는 효과를 낼 수 있습니다. 여기서는 다른 것이 아닌 Augmentation이 적용된 이후의 이미지를 확인하는 방법에 대해서 알아보겠습니다. 코드는 아래와 같습니다. import matplotlib.pyplot as plt import torchvision import random # 시각화할 데이터 img, label = next(iter(qd_train_dataloader)) # 랜덤으로 8개 시각화할 예정 idx = random.randint(0, 55) inverse_class_dict = {value:key for key,value i..