본문 바로가기 메뉴 바로가기

캡틴테크의 실전 기술서

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

캡틴테크의 실전 기술서

검색하기 폼
  • 분류 전체보기 (257)
    • Startup (6)
    • Technology (127)
      • IT Review (14)
      • Algorithm and Design (8)
      • Linux (5)
      • AI, ML, Data (8)
      • AWS, Docker (16)
      • React (9)
      • Bluetooth (19)
      • Golang (9)
      • Windows 10 IoT (23)
      • Arduino (11)
      • etc (5)
    • Travel (13)
    • Information (103)
      • 다이어트 (87)
      • Seminar (14)
      • Primitive Idea (2)
    • English (8)
  • 방명록

Float16 (1)
[AI 모델 경량화] EfficientNet 학습 후 양자화 with TFLite

지난 시간에 양자화가 무엇이고 Tensorflow 프레임워크 내에 있는 TFLite를 이용해서 양자화가 가능한 방법에 대해서 설명했었는데요. https://hero-space.tistory.com/146 AI 모델 경량화의 지름길 TFLite Quantization 다양한 AI 모델이 시시각각 나오는 시대에서 경량화에 대한 이슈도 그만큼 높아져 가고 있는데요. 모델이 작으면서 정확도가 좋다면 그만큼 리소스를 절약할 수 있기 때문에 다양한 산업군에서 hero-space.tistory.com 실제 AI 사용모델을 가지고 학습 완료된 모델 파일에 대한 양자화를 진행해 보도록 하겠습니다. Float16 Post Quantization [Default] from __future__ import absolute_i..

Technology/AI, ML, Data 2023. 2. 2. 18:05
이전 1 다음
이전 다음

Blog is powered by Tistory / Designed by Tistory

티스토리툴바