Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- jupyter 명령어 모드 단축키
- 가상환경 확인
- vscode sftp
- 프로그래머스 42839번
- 카카오 보석 쇼핑
- 프로그래머스 42883번
- augmentation 이후 이미지 확인
- gradient descent optimization
- zip 압축해제 명령어
- YOLO detection
- pytorch 이미지 확인
- 원격서버 로컬 동기화
- 백준 효율적인 해킹
- 프로그래머스 67256번
- 프로그래머스 67257번
- 프로그래머스 67258번
- object detection
- 백준 1325번
- 프로그래머스 72410번
- 가상환경 제거
- MMdetection
- DeepLabv3+
- Optimization algorithms
- 프로그래머스 보석 쇼핑
- 프로그래머스 42885번
- Kullback-Leibler Divergence
- 백준 3190번
- 프로그래머스 43164번
- os 확인 명령어
- jupyter 셀 추가 단축키
Archives
- Today
- Total
목록Optimization algorithms (1)
소소한 블로그

오늘 수업에서 Gradient Descent Methods에 대해 잠깐 소개되었습니다. ( Stochasic gradient descent, Momentum, Nesterov accelerated gradient, Adagrad, Adadelta, RMSprop, Adam ) 총 7가지네요ㅎㅎ 아무래도 한정된 시간에서 교육이 진행되다 보니, 각 방법에 대한 설명은 아주 간단하게 넘어갔습니다. 개인적으로 아쉬워서 각 방법에 대해 더 공부해봤습니다! 제가 본 자료들 중에 아래 논문이 가장 도움이 많이 되었습니다. 이번 게시물도 아래 논문을 기준으로 풀어냈습니다. https://arxiv.org/pdf/1609.04747.pdf 저는 각 방법에 대해 deep하게 다루기보다는 간략한 개념과 아이디어에 대해 소개..
부스트캠프 AI Tech
2021. 8. 12. 01:08