Share to: share facebook share twitter share wa share telegram print page

Accelerated Linear Algebra

XLA
Accelerated Linear Algebra
개발자OpenXLA
저장소(영어) xla - 깃허브
프로그래밍 언어C++
운영 체제리눅스, MacOS, Windows
종류컴파일러
라이선스Apache License 2.0
웹사이트openxla.org

Accelerated Linear Algebra(XLA)는 OpenXLA 프로젝트에서 개발한 기계 학습을 위한 오픈 소스 컴파일러이다.[1] XLA는 더 낮은 수준에서 계산 그래프를 최적화하여 기계 학습 모델의 성능을 향상시키도록 설계되었으며, 대규모 계산 및 고성능 기계 학습 모델에 특히 유용하다. XLA의 주요 기능은 다음과 같다.[2]

  • 계산 그래프 컴파일: 계산 그래프를 효율적인 기계 코드로 컴파일한다.
  • 최적화 기술: 연산 융합, 메모리 최적화 및 기타 기술을 적용한다.
  • 하드웨어 지원: CPU, GPU, NPU를 포함한 다양한 하드웨어에 맞게 모델을 최적화한다.
  • 모델 실행 시간 개선: 학습 및 추론 모두에서 기계 학습 모델의 실행 시간을 줄이는 것을 목표로 한다.
  • 원활한 통합: 최소한의 변경으로 기존 기계 학습 코드와 함께 사용할 수 있다.

XLA는 기계 학습 모델을 최적화하는 데 중요한 단계이며, 개발자에게 계산 효율성과 성능을 향상시키는 도구를 제공한다.[3][4]

지원되는 대상 장치

같이 보기

각주

  1. “OpenXLA Project”. 2024년 12월 21일에 확인함. 
  2. Woodie, Alex (2023년 3월 9일). “OpenXLA Delivers Flexibility for ML Apps”. 《Datanami》. 2023년 12월 10일에 확인함. 
  3. “TensorFlow XLA: Accelerated Linear Algebra”. 《TensorFlow Official Documentation》. 2023년 12월 10일에 확인함. 
  4. Smith, John (2022년 7월 15일). 《Optimizing TensorFlow Models with XLA》. 《Journal of Machine Learning Research》 23. 45–60쪽. 
  5. “intel/intel-extension-for-openxla”. 《GitHub. 2024년 12월 29일에 확인함. 
  6. “Accelerated JAX on Mac - Metal - Apple Developer”. 2024년 12월 29일에 확인함. 
  7. “Developer Guide for Training with PyTorch NeuronX — AWS Neuron Documentation”. 《awsdocs-neuron.readthedocs-hosted.com》. 2024년 12월 29일에 확인함. 
  8. Barsoum, Emad (2022년 4월 13일). “Supporting PyTorch on the Cerebras Wafer-Scale Engine - Cerebras” (영어). 《Cerebras》. 2024년 12월 29일에 확인함. 
  9. Ltd, Graphcore. “Poplar® Software”. 《graphcore.ai》. 2024년 12월 29일에 확인함. 
  10. “PyTorch/XLA documentation — PyTorch/XLA master documentation”. 《pytorch.org》. 2024년 12월 29일에 확인함. 
Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9

Portal di Ensiklopedia Dunia

Kembali kehalaman sebelumnya