Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 프론트엔드
- 배열
- 포인터
- C
- 웹팩
- 프로그래머스
- 브라우저
- 컨테이너
- 연결리스트
- 해시테이블
- 타입스크립트
- APOLLO
- 스택
- 릿코드
- 큐
- cors
- vue3
- 프로세스
- 알고리즘
- 이진탐색
- 자료구조
- Machine Learning
- GraphQL
- pytorch
- 연결 리스트
- 자바스크립트
- RT scheduling
- RxJS
- alexnet
- 코딩테스트
Archives
- Today
- Total
목록review (1)
프린세스 다이어리
[Review] Pytorch Distributed: Experiences on Accelerating Data Parallel Training
PyTorch Distributed: Experiences on Accelerating Data Parallel Training (Shen Li et al.) PyTorch의 DistributedDataParallel 모듈을 소개한 2020년 논문입니다. (1) 왜 이런 논문을 쓰게 되었는지, (2) 해결하고자 한 문제점은 무엇인지, (3) 어떻게 해결했는지, (4) 평가는 어떻게 이루어졌는지를 중점적으로 정리해보았습니다. 1. Background In the field of Deep Neural Networks (DNN) training, there are three primary steps: the forward pass to compute loss, the backward pass to calcul..
AI, ML
2023. 5. 29. 13:26