일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- zip 압축해제 명령어
- YOLO detection
- 카카오 보석 쇼핑
- MMdetection
- 프로그래머스 42883번
- pytorch 이미지 확인
- jupyter 명령어 모드 단축키
- os 확인 명령어
- 프로그래머스 43164번
- Optimization algorithms
- 프로그래머스 67258번
- vscode sftp
- 가상환경 제거
- 백준 1325번
- 프로그래머스 72410번
- 프로그래머스 42839번
- DeepLabv3+
- 프로그래머스 42885번
- Kullback-Leibler Divergence
- 백준 3190번
- object detection
- 가상환경 확인
- augmentation 이후 이미지 확인
- 프로그래머스 67257번
- 프로그래머스 보석 쇼핑
- 원격서버 로컬 동기화
- jupyter 셀 추가 단축키
- 프로그래머스 67256번
- 백준 효율적인 해킹
- gradient descent optimization
- Today
- Total
목록부스트캠프 AI Tech (14)
소소한 블로그
보호되어 있는 글입니다.
* 해당 글은 2021.09.28에 임시저장만 했던 글로, 일부 수정해 2021.11.21에 업로드한 글입니다. 이번 글은 Object Detection 경연 진행 중 알게 된 MMDetection 사용법에 대해 일부 소개하고자 합니다. 여담을 말하자면, Object Detection 경연에서는 새로운 라이브러리를 마주할 때의 대처능력을 길러보고자 한번도 경험해보지 않은 MMDetection을 사용해봤습니다. MMDetection 사용법에 대해서는 원하는 자료가 많지는 않았었는데, 특히 한국어로 원하는 내용 찾기는 더 어려웠습니다. 저번 포스팅에서도 언급했지만 MMDetection은 공식 홈페이지 튜토리얼이 잘되어있으므로, 찾고자 하는 내용이 있으면 공식 홈페이지를 먼저 참고하고 그래도 없으면 기존의 g..
지난 Object detection 경연에서는 MMDetection을 사용했습니다. * 참고 https://github.com/open-mmlab/mmdetection GitHub - open-mmlab/mmdetection: OpenMMLab Detection Toolbox and Benchmark OpenMMLab Detection Toolbox and Benchmark. Contribute to open-mmlab/mmdetection development by creating an account on GitHub. github.com MMDetection을 사용하고 있는 동안 생각보다 기존의 코드를 수정하고 싶을때나, 기존에는 없는 것을 새로 추가하고 싶을때가 많았습니다. 실제로 저는 기존 Mos..
새삼 교육이 시작된지 51일차라는 것이 놀랍네요. 이번 경연 주제는 Semantic segmentation입니다. 데이터 Annotation file은 COCO format과 동일하게 제공되었습니다. 본격적인 경연에 앞서 EDA를 하는 과정을 가졌고, 해당 코드를 개인 Github에 올렸습니다. 데이터 Annotation file이 COCO format과 동일하므로, 혹시 COCO format의 Semantic segmentation을 다루고 있다면 아래의 코드가 활용 가능할 듯 합니다. https://github.com/note823/coco_semantic_segmentation_format_eda/blob/main/eda.ipynb
제일 마지막 글의 업로드 날짜가 9월 27일이니깐 3주 넘게 업로드를 안했네요. 9월 27일이면 Object detection 경연 시작날짜였으니, 경연 시작이후에는 블로그에는 미처 신경쓰지 못했음을 알 수 있습니다. 이번 글은 미리 말하건데 정리안된 내용들이 아주 길게 뒤죽박죽 뒤섞일 예정입니다ㅎㅎ 제가 경연을 하면서 느낀점에 대해 부담가지지 않고 솔직히 이야기해볼 예정입니다. 정리된 내용은 이번 글을 업로드한 뒤 종류별(mmdetection사용법, 어떤 것을 구현했는지 등..)로 정리해볼 예정이에요. 경연 과정속에서의 내 생각과, 경연 막바지에서의 내 생각 솔직히 말하자면 이번 경연은 저에게는 스트레스였습니다. 내가 왜 이렇게 스트레스를 받을까 생각을 해봤는데 아래와 같더군요. '내가 팀으로 활동해서..
이번글은 VSCode에서 로컬 폴더와 원격서버 폴더를 동기화하는 방법에 대해 정리하겠습니다. 이를 생각하게 된 계기는 미니프로젝트를 해보려고 하는데 갑자기 아래와 같은 생각이 들었기 때문입니다. (접은글로 작성했습니다.) 더보기 '저번에 원격서버의 파일들을 백업해놓지 않은 상태에서 원격서버가 접속이 되지 않아 당황했는데, 원격서버와 로컬서버를 동기화하는 방법은 없을까. 원격서버에서 파일을 수정하여 저장하면 자동적으로 로컬에도 해당 파일이 저장되면 좋을텐데. 아니면 그 반대(로컬에서 파일을 수정하여 저장하면 원격에 자동적으로 저장됨)도 괜찮을 듯 하다. 이렇게 된다면 자동적으로 로컬에 원격서버 파일들이 백업되어 불가피하게 서버가 다운되었을 때를 대비할 수 있을 것 같다.' 그 후 구글링을 하여 동기화하는 ..
Train datasets은 실제 데이터 분포를 설명하기에는 너무 제한적입니다. Augmentation은 Train datasets의 분포를 더 dense하게 만드는 효과를 낼 수 있습니다. 여기서는 다른 것이 아닌 Augmentation이 적용된 이후의 이미지를 확인하는 방법에 대해서 알아보겠습니다. 코드는 아래와 같습니다. import matplotlib.pyplot as plt import torchvision import random # 시각화할 데이터 img, label = next(iter(qd_train_dataloader)) # 랜덤으로 8개 시각화할 예정 idx = random.randint(0, 55) inverse_class_dict = {value:key for key,value i..
이미지 분류 경연을 위해 간단한 multi-class 이미지 분류기를 end-to-end 구현해봤습니다. 혼자 모델을 구현해본 적이 없기 때문에, 아래 사항들에 초점을 맞춰 대략적인 base line code를 작성해봤어요. 1) 아주 간단한 Custom Model 정의 (※ net과 net사이의 parameter 개수 고려) 2) 주어진 데이터셋에 맞춰 Custom Dataset 정의 3) Dataset에 넘겨줄 input data, label data 가공 (※ csv와 파일명으로부터 labeling 진행) 4) Training이 진행되는지 확인 5) 훈련된 Model로 부터 Inference 어떤 점이 개선되어야 하는지는 구현에 대한 설명을 끝낸 후 소개해드리겠습니다. 아래는 제가 작성한 코드에 대..