Moait
홈인기 피드모든 블로그모든 태그
홈인기 피드모든 블로그모든 태그
PyTorch 2.x Torch Compile로 딥러닝 성능 올려보기 섬네일

PyTorch 2.x Torch Compile로 딥러닝 성능 올려보기

현대자동차 favicon현대자동차·AI/ML·
PyTorchTorch CompileTorchDynamoAOTAutogradTorchInductor
2025년 03월 06일0

AI 요약

이 글은 AI가 요약했어요. 정확한 내용은 꼭 원문을 확인해 주세요!

핵심 요약

현대자동차가 PyTorch 2.x Torch Compile로 추론 속도와 메모리 활용 최적화를 실험했습니다. 오픈소스 모델 mamba를 대상으로 평균 추론 시간이 약 32.8% 감소했고, P90/P99도 각각 약 29.9%와 33.0% 개선했습니다. 학습 시간은 소폭 증가했고 메모리는 상황에 따라 변동이 있었습니다.

주요 경험

  • 1줄 코드로 torch.compile(model) 적용이 가능합니다.
  • TorchDynamo/AOTAutograd/PrimTorch/TorchInductor가 자동 최적화를 수행합니다.

얻은 인사이트

  • 실행 경로 최적화를 위해서는 먼저 컴파일 적용이 필요하며, 저장 시 _orig_mod 접두사 문제를 주의해야 합니다.
  • ONNX 내보내기는 dynamo_export 사용을 권장합니다.

연관 피드

%가 높을수록 이 글과 비슷할 가능성이 높아요!
업무 효율화를 성공시킨 "임베디드 보드 성능 예측 AI 모델" 개발기 섬네일
71%

업무 효율화를 성공시킨 "임베디드 보드 성능 예측 AI 모델" 개발기

현대자동차 favicon현대자동차·2025년 02월 26일
[딥러닝 경량화] Pruning 기법으로 딥러닝 네트워크 경량화하기: 개념과 실제 적용 사례 섬네일
69%

[딥러닝 경량화] Pruning 기법으로 딥러닝 네트워크 경량화하기: 개념과 실제 적용 사례

현대자동차 favicon현대자동차·2024년 11월 24일
ML gpu model server 성능을 유지하며 cpu server로 전환한 경험 공유 섬네일
68%

ML gpu model server 성능을 유지하며 cpu server로 전환한 경험 공유

Naver Place faviconNaver Place·2023년 07월 13일