본문 바로가기 메뉴 바로가기

캡틴테크의 실전 기술서

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

캡틴테크의 실전 기술서

검색하기 폼
  • 분류 전체보기 (257)
    • Startup (6)
    • Technology (127)
      • IT Review (14)
      • Algorithm and Design (8)
      • Linux (5)
      • AI, ML, Data (8)
      • AWS, Docker (16)
      • React (9)
      • Bluetooth (19)
      • Golang (9)
      • Windows 10 IoT (23)
      • Arduino (11)
      • etc (5)
    • Travel (13)
    • Information (103)
      • 다이어트 (87)
      • Seminar (14)
      • Primitive Idea (2)
    • English (8)
  • 방명록

텐서플로우 (4)
[AI 모델 경량화] Representative Dataset 이용한 UINT8 양자화

지금가지 학습 후 양자화와 사전 양화를 진행해보았는데, 학습 후 양자화 하는 방법 중 한가지 빼 놓은 것이 있습니다. 바로 UINT8로 INT8보다 훨씬더 타입을 축소하게 만드는 것인데 이를 위해서는 몇가지 절차가 필요한데요 오늘은 그 방법에 대해서 살펴보도록 하겠습니다. 소스코드 from __future__ import absolute_import, division, print_function import tensorflow as tf import cv2 import numpy as np import pathlib import glob, os BATCH_SIZE = 1 src = "/home/hero/data/datasets/representative/" im_path = glob.glob(os.pat..

Technology/AI, ML, Data 2023. 2. 6. 21:34
[AI 모델 경량화] Quantization Aware Training 으로 경량화 하기

지난 시간에 학습후 경량화에 해당하는 Post Training Quanitzation 에 대해서 진행해보았는데요. 오늘은 학습 과정에서 Quantization을 가정하고 시뮬레이션을 같이 돌림으로서 정확도를 더 높이면서 경량화 할 수 있는 방법에 대해서 알아보도록 하겠습니다. Post Training(PTQ, static) : 학습 이후에 quantization 하는것 Quantization Aware Training(QAT) : 학습 과정에서 quantization을 가정하고 시뮬레이션을 같이 돌림 아무래도 학습 하면서 경량화 하는 방법을 적용하고 나서 학습 후 경량화를 한 번 더 적용하는게 경량화적으로 이점이 있을 거라 생각하면서 혹시나 학습 후 양자화 내용을 확인하지 못하신 분은 아래 링크를 빠르게..

Technology/AI, ML, Data 2023. 2. 5. 12:04
[AI 모델 경량화] EfficientNet 학습 후 양자화 with TFLite

지난 시간에 양자화가 무엇이고 Tensorflow 프레임워크 내에 있는 TFLite를 이용해서 양자화가 가능한 방법에 대해서 설명했었는데요. https://hero-space.tistory.com/146 AI 모델 경량화의 지름길 TFLite Quantization 다양한 AI 모델이 시시각각 나오는 시대에서 경량화에 대한 이슈도 그만큼 높아져 가고 있는데요. 모델이 작으면서 정확도가 좋다면 그만큼 리소스를 절약할 수 있기 때문에 다양한 산업군에서 hero-space.tistory.com 실제 AI 사용모델을 가지고 학습 완료된 모델 파일에 대한 양자화를 진행해 보도록 하겠습니다. Float16 Post Quantization [Default] from __future__ import absolute_i..

Technology/AI, ML, Data 2023. 2. 2. 18:05
[AI 모델 경량화] AI 모델 경량화의 지름길 TFLite Quantization

다양한 AI 모델이 시시각각 나오는 시대에서 경량화에 대한 이슈도 그만큼 높아져 가고 있는데요. 모델이 작으면서 정확도가 좋다면 그만큼 리소스를 절약할 수 있기 때문에 다양한 산업군에서 점점 니즈가 생겨나고 있습니다. 클라우드 서비스를 하는 곳에서도 AI 모델을 사용한다면 클라우드 자체에 모델의 사이즈가 작다면 클라우드 비용을 그만큼 절약할 수 있는 가능성이 높기에 리소의 제약이 심한 엣지 디바이스 뿐 아니라 클라우드 환경에서도 가능하다면 적용하는 사례가 늘고 있습니다. 경량화를 연구하는 스타트업은 아래와 같습니다. 1. 노타(https://www.nota.ai/) 2. 에너자이(https://enerzai.com/) 3. 스퀴즈비츠 (https://squeezebits.com/) 4. 날비(https:..

Technology/AI, ML, Data 2023. 1. 31. 16:17
이전 1 다음
이전 다음

Blog is powered by Tistory / Designed by Tistory

티스토리툴바