ID_DI
DI's study notes
ID_DI
전체 방문자
오늘
어제
  • 분류 전체보기 (85)
    • Deep-Learning (3)
      • CNN (2)
      • NLP (1)
    • Data_Python (6)
      • Numpy (0)
      • Matplotlib (4)
    • Python (8)
      • Python Algorithm (6)
    • Java (36)
      • Java(base) (33)
      • Java practice(base) (2)
    • Git (12)
    • Algorithm (7)
    • etc (7)
    • linux (1)
    • DeskSetup (0)
    • TIL_모각코 (4)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • java.lang
  • git
  • 정렬
  • 커밋
  • binarySearch
  • 합병정렬
  • staged
  • java.net
  • git add.
  • java
  • string to int
  • java base
  • 자바
  • matplotlib
  • README.md
  • Github
  • 알고리즘
  • Python
  • java 기초
  • 파이썬

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
ID_DI

DI's study notes

Deep-Learning/CNN

Quantization 기법

2022. 7. 5. 23:23

Quantization 기법

Post Training Quantization

1. Dynamic Quantization (동적 양자화)

  • 사전에 Weight(가중치) 를 양자화
  • inference 시점에 동적으로 activation을 양자화
    • activation 을 FP로 저장해놓고, inference 시점에서 quantize를 진행하고 완료 후 dequantize

장점

  • 메모리 로딩 속도 개선
  • 연산속도 향상이 미비할 수 있음(inference kernel 연산이 추가 되기 때문)

2. Static Quantization (정적 양자화)

  • 사전에 Weight(가중치)와 activation 모두 양자화
  • context-switching overhead 감소시키기 위해 activation과 그전 단계의 layer를 합치는 fusion 수행

Quantization-aware training

  • Training 중에 Weight(가중치)와 activation 모두 양자화
  • fake-quantization modules과 fake-quantization nodes를 양자화가 진행되는 부분에 추가

'Deep-Learning > CNN' 카테고리의 다른 글

Quantization(양자화)란  (0) 2022.07.05
    'Deep-Learning/CNN' 카테고리의 다른 글
    • Quantization(양자화)란
    ID_DI
    ID_DI
    Computer Vision

    티스토리툴바