ID_DI
DI's study notes
ID_DI
전체 방문자
오늘
어제
  • 분류 전체보기 (85)
    • Deep-Learning (3)
      • CNN (2)
      • NLP (1)
    • Data_Python (6)
      • Numpy (0)
      • Matplotlib (4)
    • Python (8)
      • Python Algorithm (6)
    • Java (36)
      • Java(base) (33)
      • Java practice(base) (2)
    • Git (12)
    • Algorithm (7)
    • etc (7)
    • linux (1)
    • DeskSetup (0)
    • TIL_모각코 (4)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • Python
  • java.lang
  • 합병정렬
  • java base
  • binarySearch
  • Github
  • java
  • string to int
  • 정렬
  • 자바
  • README.md
  • staged
  • 알고리즘
  • 커밋
  • matplotlib
  • git
  • java.net
  • git add.
  • 파이썬
  • java 기초

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
ID_DI
Deep-Learning/CNN

Quantization 기법

Deep-Learning/CNN

Quantization 기법

2022. 7. 5. 23:23

Quantization 기법

Post Training Quantization

1. Dynamic Quantization (동적 양자화)

  • 사전에 Weight(가중치) 를 양자화
  • inference 시점에 동적으로 activation을 양자화
    • activation 을 FP로 저장해놓고, inference 시점에서 quantize를 진행하고 완료 후 dequantize

장점

  • 메모리 로딩 속도 개선
  • 연산속도 향상이 미비할 수 있음(inference kernel 연산이 추가 되기 때문)

2. Static Quantization (정적 양자화)

  • 사전에 Weight(가중치)와 activation 모두 양자화
  • context-switching overhead 감소시키기 위해 activation과 그전 단계의 layer를 합치는 fusion 수행

Quantization-aware training

  • Training 중에 Weight(가중치)와 activation 모두 양자화
  • fake-quantization modules과 fake-quantization nodes를 양자화가 진행되는 부분에 추가

'Deep-Learning > CNN' 카테고리의 다른 글

Quantization(양자화)란  (0) 2022.07.05
  • Post Training Quantization
  • 1. Dynamic Quantization (동적 양자화)
  • 2. Static Quantization (정적 양자화)
  • Quantization-aware training
'Deep-Learning/CNN' 카테고리의 다른 글
  • Quantization(양자화)란
ID_DI
ID_DI
Computer Vision

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.