블로그
AI Stack 최신 글
Blog & News
성공 사례
솔루션
주요 이야기
기술 지원
탄력적 분산 훈련(Elastic Distributed Training)은 AI 모델 훈련에서 효율성과 유연성을 높이기 위해 사용되는 기술입니다. 간단히 말해, 모델 훈련이 단일 머신이나 고정된 수의 컨테이너에 국한되지 않고 수요에 따라 가용한 컴퓨팅 자원을 동적으로 조정하고 활용할 수 있게 합니다. 인피니틱스는 탄력적 분산 훈련을 AI-Stack에 원활하게 통합하여 Horovod, DeepSpeed, Megatron-LM, Slurm 등 주요 프레임워크를 지원함으로써 기업의 자원 스케줄링 병목 현상을 효과적으로 해소하고 대규모 AI 모델 훈련을 가속합니다. 본 글에서는 AI-Stack에서 Horovod를 활용해 탄력적 분산 훈련을 수행하는 방법을 단계별로 시연해 드리겠습니다! Horovod와 DeepSpeed의 운영 단계가 유사하므로, 본 글에서는 Horovod를 예시로 사용합니다. 주의할 점은 사용 전 【공용 이미지 목록】에 DeepSpeed 및 Horovod 프레임워크 실행에 적합한 이미지가…
Kubeflow는 Kubernetes를 기반으로 구축된 오픈소스 플랫폼으로, 데이터 준비, 모델 훈련, 하이퍼파라미터 튜닝, 모델 배포 및 모니터링 등 각 단계를 포괄하는 표준화되고 통합된 도구 세트를 제공함으로써 AI 모델의 실제 적용 과정을 크게 간소화합니다. 현재 많은 데이터 과학자와 머신러닝 엔지니어가 자주 사용하는 플랫폼으로 자리 잡았습니다. 그러나 많은 개발자가 Kubeflow 사용 시 GPU 리소스 분할이 불가능한 문제를 겪습니다. 플랫폼 특성상 단일 컨테이너가 전체 GPU 리소스를 점유하기 때문에, 프로젝트에 필요한 리소스가 적을 경우 일부 GPU 컴퓨팅 자원이 유휴 상태로 방치되어 효율적으로 활용되지 못합니다. 본 글에서는 인피니틱스의 ixGPU 모듈을 활용해 Kubeflow에서 GPU 분할을 구현하는 방법을 단계별로 안내합니다. Kubeflow 플랫폼에서 ixGPU 모듈을 활용한 GPU 탄력적 분할…
Kubeflow의 보급과 과제: 단일 GPU 활용률 병목 현상 Kubeflow는 Kubernetes 기반의 오픈소스 머신러닝 플랫폼으로, 최근 머신러닝 분야에서 점차 보편화되고 있습니다. 개발자가 확장 가능한 머신러닝 워크로드를 쉽게 구축, 배포 및 관리할 수 있도록 지원하며, 완전한 머신러닝 파이프라인 관리, 분산 훈련 및 하이퍼파라미터 튜닝 등의 장점을 제공합니다. 그러나 Kubeflow가 널리 사용되고 있음에도 불구하고 실제 적용 시 한 가지 문제점이 존재합니다: GPU를 분할할 수 없다는 점입니다. 이로 인해 귀중한 컴퓨팅 자원이 효율적으로 활용되지 못해 많은 머신러닝 개발자들의 고민거리가 되고 있습니다. 하나의 GPU가 단일 작업에 독점적으로 할당될 경우, 실제 작업의 자원 요구량과 무관하게 자원이 유휴 상태로 남아 전체 개발 효율성과 비용 효율성에 부정적인 영향을…
AI-Stack 적용 사례에 대해 더 알아보고 싶다면