ID_DI
DI's study notes
ID_DI
전체 방문자
오늘
어제
  • 분류 전체보기 (85)
    • Deep-Learning (3)
      • CNN (2)
      • NLP (1)
    • Data_Python (6)
      • Numpy (0)
      • Matplotlib (4)
    • Python (8)
      • Python Algorithm (6)
    • Java (36)
      • Java(base) (33)
      • Java practice(base) (2)
    • Git (12)
    • Algorithm (7)
    • etc (7)
    • linux (1)
    • DeskSetup (0)
    • TIL_모각코 (4)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • 커밋
  • java 기초
  • java.net
  • README.md
  • staged
  • git
  • matplotlib
  • 정렬
  • java base
  • 자바
  • 합병정렬
  • 파이썬
  • java
  • Python
  • java.lang
  • 알고리즘
  • git add.
  • binarySearch
  • string to int
  • Github

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
ID_DI

DI's study notes

Deep-Learning/CNN

Quantization(양자화)란

2022. 7. 5. 23:04

Quantization(양자화) in deep learning

  • 딥러닝 모델(lightweight deep learning) 을 경량화 할 때 사용되는 기법 중 하나
  • 경량화는 크게 두가지로 나뉨
    • 모델의 알고리즘을 재설계
      • 모델 구조 변경
      • 합성곱 필터 기술
      • 경량 모델 자동 탐색
    • 기존 모델의 파라미터를 줄임
      • Weight Pruning
      • Quantazation
      • Binarization
  • **quantization(양자화)**는 기존 모델의 파라미터를 줄이는 기법 중 하나이다.

Quantization(양자화)

목적: Inference Time 을 줄이는 것(Training time 이 아님)

  • 모델의 파라미터를 lower bit 로 표현하여, 연산과 메모리 access 속도를 높이는 기법
  • 보통 FP 32bit 에서 int 8bit 로 변환하는 방식을 자주 사용

Quantization 장점

  • 모델의 size(용량) 축소
  • 사용 RAM 메모리 절약
  • 예측 속도 개선
  • 전력 소비 효율과

Quantization 단점

  • accuracy 저하
  • 기존 모델보다 성능은 떨어지는 것을 감안하고, 양자화 진행

Quantization 종류

  1. Post Training Quantization
    • Train 후 quantize
  2. Quantiation Aware Training
    • Train 중 quantize

 

 

 

 

참고

https://velog.io/@jooh95/%EB%94%A5%EB%9F%AC%EB%8B%9D-Quantization%EC%96%91%EC%9E%90%ED%99%94-%EC%A0%95%EB%A6%AC

https://wooono.tistory.com/405

'Deep-Learning > CNN' 카테고리의 다른 글

Quantization 기법  (0) 2022.07.05
    'Deep-Learning/CNN' 카테고리의 다른 글
    • Quantization 기법
    ID_DI
    ID_DI
    Computer Vision

    티스토리툴바