기술 지원
AI-Stack의 최신 제품 기능과 자주 묻는 질문을 통해 제품의 특징과 사용 방법에 대한 포괄적인 정보를 얻을 수 있습니다.
탄력적 분산 훈련(Elastic Distributed Training)은 AI 모델 훈련에서 효율성과 유연성을 높이기 위해 사용되는 기술입니다. 간단히 말해, 모델 훈련이 단일 머신이나 고정된 수의 컨테이너에 국한되지 않고 수요에 따라 가용한 컴퓨팅 자원을 동적으로 조정하고 활용할 수 있게 합니다. 인피니틱스는 탄력적 분산 훈련을 AI-Stack에 원활하게 통합하여 Horovod, DeepSpeed, Megatron-LM, Slurm 등 주요 프레임워크를 지원함으로써 기업의 자원 스케줄링 병목 현상을 효과적으로 해소하고 대규모 AI 모델 훈련을 가속합니다. 본 글에서는 AI-Stack에서 Horovod를 활용해 탄력적 분산 훈련을 수행하는 방법을 단계별로 시연해 드리겠습니다! Horovod와 DeepSpeed의 운영 단계가 유사하므로, 본 글에서는 Horovod를 예시로 사용합니다. 주의할 점은 사용 전 【공용 이미지 목록】에 DeepSpeed 및 Horovod 프레임워크 실행에 적합한 이미지가…
Kubeflow는 Kubernetes를 기반으로 구축된 오픈소스 플랫폼으로, 데이터 준비, 모델 훈련, 하이퍼파라미터 튜닝, 모델 배포 및 모니터링 등 각 단계를 포괄하는 표준화되고 통합된 도구 세트를 제공함으로써 AI 모델의 실제 적용 과정을 크게 간소화합니다. 현재 많은 데이터 과학자와 머신러닝 엔지니어가 자주 사용하는 플랫폼으로 자리 잡았습니다. 그러나 많은 개발자가 Kubeflow 사용 시 GPU 리소스 분할이 불가능한 문제를 겪습니다. 플랫폼 특성상 단일 컨테이너가 전체 GPU 리소스를 점유하기 때문에, 프로젝트에 필요한 리소스가 적을 경우 일부 GPU 컴퓨팅 자원이 유휴 상태로 방치되어 효율적으로 활용되지 못합니다. 본 글에서는 인피니틱스의 ixGPU 모듈을 활용해 Kubeflow에서 GPU 분할을 구현하는 방법을 단계별로 안내합니다. Kubeflow 플랫폼에서 ixGPU 모듈을 활용한 GPU 탄력적 분할…
Kubeflow의 보급과 과제: 단일 GPU 활용률 병목 현상 Kubeflow는 Kubernetes 기반의 오픈소스 머신러닝 플랫폼으로, 최근 머신러닝 분야에서 점차 보편화되고 있습니다. 개발자가 확장 가능한 머신러닝 워크로드를 쉽게 구축, 배포 및 관리할 수 있도록 지원하며, 완전한 머신러닝 파이프라인 관리, 분산 훈련 및 하이퍼파라미터 튜닝 등의 장점을 제공합니다. 그러나 Kubeflow가 널리 사용되고 있음에도 불구하고 실제 적용 시 한 가지 문제점이 존재합니다: GPU를 분할할 수 없다는 점입니다. 이로 인해 귀중한 컴퓨팅 자원이 효율적으로 활용되지 못해 많은 머신러닝 개발자들의 고민거리가 되고 있습니다. 하나의 GPU가 단일 작업에 독점적으로 할당될 경우, 실제 작업의 자원 요구량과 무관하게 자원이 유휴 상태로 남아 전체 개발 효율성과 비용 효율성에 부정적인 영향을…
이 데이터 집약적 컴퓨팅 시대에 인공지능(AI)은 전례 없는 속도로 각 산업을 변화시키고 있습니다. 제조업의 생산 라인, 병원의 진단실, 금융 시장의 위험 평가부터 과학 연구의 돌파구에 이르기까지 AI는 점점 더 중요한 역할을 수행하고 있습니다. 그러나 AI의 무한한 잠재력을 최대한 발휘하려면 첨단 알고리즘뿐만 아니라 인프라, 개발 및 관리를 원활하게 통합하는 강력한 소프트웨어 플랫폼이 필요합니다. 인피니틱스는 AI 인프라 관리 소프트웨어 개발에 지속적으로 매진해 왔습니다. AI 붐이 일기 전인 2017년부터 AI-Stack을 통해 AI GPU 자원 스케줄링 및 AI 인프라 관리 플랫폼 분야에 선제적으로 진출했습니다. 2019년에는 NVIDIA 신생 기업 연계 프로그램(Inception Program)의 글로벌 파트너 멤버가 되었으며, NVIDIA 인증 솔루션 어드바이저(Solution Advisor – Preferred Level) 자격을…