ONNX Runtime 설치
원하는 운영 체제, 하드웨어, 가속기 및 언어 조합에 대한 권장 설치 지침은 설치 매트릭스를 참조하십시오.
운영 체제 버전, 컴파일러, 언어 버전, 종속 라이브러리 등에 대한 자세한 내용은 호환성 항목을 참조하십시오.
1. ONNX 설치
1.1 요구사항
모든 빌드에는 en_US.UTF-8 로케일이 포함된 영어 언어 패키지가 필요합니다. Linux에서는 locale-gen en_US.UTF-8 및 update-locale LANG=en_US.UTF-8 명령을 실행하여 language-pack-en package 를 설치하십시오.
Windows 빌드에는 Visual C++ 2019 runtime이 필요합니다. 최신 버전을 사용하는 것이 좋습니다.
1.2 CUDA와 CuDnn
ONNX Runtime GPU 패키지를 사용하려면 CUDA와 cuDNN을 설치해야 합니다. 호환되는 CUDA 및 cuDNN 버전을 확인하려면 CUDA execution provider requirements을 참조하십시오.
• zlib는 Linux용 cuDNN 9.x에서만 필요합니다(zlib는 cuDNN 9.x Windows 동적 라이브러리에 정적으로 링크됨). 또는 Linux 및 Windows용 cuDNN 8.x에서도 필요합니다. Linux 또는 Windows에 zlib를 설치하려면 cuDNN 8.9 installation guide를 참조하십시오.
• Windows에서는 CUDA bin 및 cuDNN bin 디렉터리의 경로를 PATH 환경 변수에 추가해야 합니다.
• Linux에서는 CUDA lib64 및 cuDNN lib 디렉터리의 경로를 LD_LIBRARY_PATH 환경 변수에 추가해야 합니다.
onnxruntime-gpu 패키지를 사용하면 CUDA 또는 cuDNN을 수동으로 설치하지 않고도 PyTorch와 함께 사용할 수 있습니다. 자세한 내용은 Compatibility with PyTorch을 참조하십시오.
2. Python 설치
2.1 ONNX Runtime CPU 설치
INSTALL NIGHTLY
2.2 ONNX 런타임 GPU(DirectML) 설치 - 지속형 엔지니어링 모드
Note: DirectML은 지속적인 엔지니어링 작업이 진행 중입니다. 새로운 Windows 프로젝트에서는 WinML을 사용하는 것을 고려해 보세요.
INSTALL NIGHTLY
2.3 ONNX 런타임 GPU(CUDA 또는 TensorRT)를 설치하세요.
CUDA 12.X
onnxruntime-gpu in pypi의 기본 CUDA 버전은 1.19.0 버전부터 12.x입니다.
For previous versions, you can download here: 1.18.1, 1.18.0
NIGHTLY FOR CUDA 13.X
NIGHTLY FOR CUDA 12.X
CUDA 11.X
CUDA 11.x의 경우, ORT Azure Devops Feed에서 1.19.2 이상 버전을 설치하려면 다음 지침을 따르십시오.
For previous versions, you can download here: 1.18.1, 1.18.0
2.4 ONNX 런타임 QNN 설치
INSTALL NIGHTLY
3. C#/C/C++/WinML Installs
3.1 Install ONNX Runtime
INSTALL ONNX RUNTIME CPU
INSTALL ONNX RUNTIME GPU (CUDA 12.X)
ORT의 기본 CUDA 버전은 12.x입니다.
INSTALL ONNX RUNTIME GPU (CUDA 11.8)
(1) Project Setup
Azure Artifacts 키링의 최신 버전을 Github Repo에서 설치했는지 확인하세요.
프로젝트의 .csproj 파일과 동일한 디렉터리에 nuget.config 파일을 추가하세요.
(2) Restore packages
패키지 복원(대화형 플래그를 사용하면 dotnet이 자격 증명을 입력하라는 메시지를 표시합니다.)
참고: 매번 -interactive 옵션을 추가할 필요는 없습니다. dotnet은 자격 증명 업데이트가 필요한 경우 -interactive 옵션을 추가하라는 메시지를 표시합니다.
DIRECTML (SUSTAINED ENGINEERING - USE WINML FOR NEW PROJECTS)
참고: DirectML은 지속적인 개발 단계에 있습니다. 새로운 Windows 프로젝트에서는 WinML을 대신 사용하십시오.
WINML (RECOMMENDED FOR WINDOWS)
4. web과 mobile에 설치
pre-built 패키지는 모든 ONNX 연산 집합 및 연산자를 완벽하게 지원합니다.
pre-built 패키지의 크기가 너무 큰 경우 custom build(사용자 지정 빌드)를 생성할 수 있습니다. 사용자 지정 빌드는 모델에 필요한 연산 집합과 연산자만 포함하여 크기를 줄일 수 있습니다.
4.1 JavaScript 설치
INSTALL ONNX RUNTIME WEB (BROWSERS)
INSTALL ONNX RUNTIME NODE.JS BINDING (NODE.JS)
INSTALL ONNX RUNTIME FOR REACT NATIVE
4.2 iOS에 설치
CocoaPods Podfile에 사용하려는 API에 따라 onnxruntime-c 또는 onnxruntime-objc pod를 추가하세요.
C/C++
OBJECTIVE-C
pod install을 실행하세요.
CUSTOM BUILD
custom iOS package 생성 방법에 대한 지침을 참조하십시오.
4.3 Android에 설치
JAVA/KOTLIN
Android Studio 프로젝트에서 다음과 같이 변경하세요.
(1) build.gradle (Project):
(2) build.gradle (Module):
C/C++
MavenCentral에서 호스팅되는 onnxruntime-android AAR 파일을 다운로드하고, 파일 확장자를 .aar에서 .zip으로 변경한 후 압축을 해제하세요. 헤더 폴더의 헤더 파일과 jni 폴더의 관련 libonnxruntime.so 동적 라이브러리를 NDK 프로젝트에 포함시키세요.
CUSTOM BUILD
custom Android package 생성 방법에 대한 지침을 참조하십시오.
5. On-Device Training용 설치
달리 명시되지 않는 한, 이 섹션의 설치 지침은 기기 내 학습을 수행하도록 설계된 사전 구축 패키지를 참조합니다.
사전 구축된 학습 패키지가 모델을 지원하지만 크기가 너무 큰 경우 custom training build를 생성할 수 있습니다.
5.1 Offline 단계 - Training용 준비
Offline Phase - Prepare for Training
5.2 Training 단계 - On-Device 학습
| Device | Language | PackageName | Installation Instructions |
| Windows | C, C++, C# | Microsoft.ML.OnnxRuntime.Training | dotnet add package Microsoft.ML.OnnxRuntime.Training |
| Linux | C, C++ | onnxruntime-training-linux*.tgz |
|
| Python | onnxruntime-training | pip install onnxruntime-training | |
| Android | C, C++ | onnxruntime-training-android |
|
| Java/Kotlin | onnxruntime-training-android | In your Android Studio Project, make the following changes to:
|
|
| iOS | C, C++ | CocoaPods: onnxruntime-training-c |
|
| Objective-C | CocoaPods: onnxruntime-training-objc |
|
|
| Web | JavaScript, TypeScript | onnxruntime-web |
|
6. 거대 모델 학습
모든 언어에 대한 추론 설치 표
아래 표는 공식적으로 지원되는 패키지로 제공되는 빌드 변형을 나열합니다. 다른 변형은 각 release branch에서 소스 코드를 직접 빌드할 수 있습니다.
일반적인 requirements 외에도 아래 표에 있는 추가 요구 사항 및 종속성을 참고하십시오.
참고: 메인 브랜치에서 생성된 Nightly 빌드는 공식 릴리스 간의 최신 변경 사항을 테스트하는 데 사용할 수 있습니다. 하지만 이러한 빌드를 사용할 경우 발생하는 모든 위험은 사용자 본인이 감수해야 합니다. 야간 빌드는 지원이 제한적이므로 프로덕션 환경에 배포하는 것은 권장하지 않습니다.
모든 언어에 대한 Training 설치 표
더 자세한 설치 지침은 Optimized Training 시작하기 페이지를 참조하세요.

'Project ES > : : ONNX' 카테고리의 다른 글
| ONNX Tutorial (0) | 2026.05.01 |
|---|---|
| ONNX Runtime 소개 (0) | 2026.04.28 |