본문 바로가기 메뉴 바로가기

캡틴테크의 실전 기술서

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

캡틴테크의 실전 기술서

검색하기 폼
  • 분류 전체보기 (257)
    • Startup (6)
    • Technology (127)
      • IT Review (14)
      • Algorithm and Design (8)
      • Linux (5)
      • AI, ML, Data (8)
      • AWS, Docker (16)
      • React (9)
      • Bluetooth (19)
      • Golang (9)
      • Windows 10 IoT (23)
      • Arduino (11)
      • etc (5)
    • Travel (13)
    • Information (103)
      • 다이어트 (87)
      • Seminar (14)
      • Primitive Idea (2)
    • English (8)
  • 방명록

Aware Training (1)
[AI 모델 경량화] Quantization Aware Training 으로 경량화 하기

지난 시간에 학습후 경량화에 해당하는 Post Training Quanitzation 에 대해서 진행해보았는데요. 오늘은 학습 과정에서 Quantization을 가정하고 시뮬레이션을 같이 돌림으로서 정확도를 더 높이면서 경량화 할 수 있는 방법에 대해서 알아보도록 하겠습니다. Post Training(PTQ, static) : 학습 이후에 quantization 하는것 Quantization Aware Training(QAT) : 학습 과정에서 quantization을 가정하고 시뮬레이션을 같이 돌림 아무래도 학습 하면서 경량화 하는 방법을 적용하고 나서 학습 후 경량화를 한 번 더 적용하는게 경량화적으로 이점이 있을 거라 생각하면서 혹시나 학습 후 양자화 내용을 확인하지 못하신 분은 아래 링크를 빠르게..

Technology/AI, ML, Data 2023. 2. 5. 12:04
이전 1 다음
이전 다음

Blog is powered by Tistory / Designed by Tistory

티스토리툴바