Moait
홈인기 피드모든 블로그모든 태그
홈인기 피드모든 블로그모든 태그
[딥러닝 경량화] Pruning 기법으로 딥러닝 네트워크 경량화하기: 개념과 실제 적용 사례 섬네일

[딥러닝 경량화] Pruning 기법으로 딥러닝 네트워크 경량화하기: 개념과 실제 적용 사례

현대자동차 favicon현대자동차·AI/ML·
PythonPyTorchPruningChannel PruningAIMET
2024년 11월 24일0

AI 요약

이 글은 AI가 요약했어요. 정확한 내용은 꼭 원문을 확인해 주세요!

핵심 요약

현대자동차가 Pruning 기법과 AIMET를 활용해 딥러닝 네트워크를 경량화하고, 3D 객체 인식 성능을 유지하면서 Latency를 약 30% 낮춘 사례를 소개했습니다.

구현 방법

  • AIMET 기반 Channel Pruning 파이프라인 구성: Greedy Compression Ratio로 layer별 최적 비율을 선정하고, 메모리(Memory) 또는 MAC를 기준으로 압축 비율을 적용합니다.
  • Channel Pruning의 3단계 구현: Channel selection(가장 작은 규모의 채널 우선 제거), Winnowing(선택된 채널에 따라 입력 채널 제거), Weight와 bias 재구성(선형 회귀로 재조정).
  • 모델 압축 실행 흐름: layer별 최적 비율 도출 후 Channel Pruning으로 실제 압축을 수행하고, 3D 객체 인식 등 적용 사례에서 성능 및 추론 효율을 확인합니다.

주요 결과

  • Latency 약 30% 감소, 대상 HW에서 실시간 추론 효율 향상
  • 정확도는 원본 대비 유사하거나 1~2% 소폭 감소로 유지
  • 예시로 채널 수가 256에서 25로 대폭 축소되어 구조적 압축 효과 확인

연관 피드

%가 높을수록 이 글과 비슷할 가능성이 높아요!
[딥러닝 경량화] 딥러닝 네트워크 양자화(quantization)는 왜 필요할까? 섬네일
73%

[딥러닝 경량화] 딥러닝 네트워크 양자화(quantization)는 왜 필요할까?

현대자동차 favicon현대자동차·2024년 09월 03일
업무 효율화를 성공시킨 "임베디드 보드 성능 예측 AI 모델" 개발기 섬네일
71%

업무 효율화를 성공시킨 "임베디드 보드 성능 예측 AI 모델" 개발기

현대자동차 favicon현대자동차·2025년 02월 26일
PyTorch 2.x Torch Compile로 딥러닝 성능 올려보기 섬네일
69%

PyTorch 2.x Torch Compile로 딥러닝 성능 올려보기

현대자동차 favicon현대자동차·2025년 03월 06일