문의하기

고객의 비즈니스 목표달성을 위한 최고의 엔터프라이즈 AI경험을 지원해드립니다.

Bring the Best Enterprise AX (AI Experience)

엠키스코어 사업영역

m - pack

Consulting

급변하는 AI 트렌드에 맞춰 고객사의 AI 도입이 원활히 이루어 질 수 있도록 고객의 요구사항을 파악/분석하고 적합한 AI 디자인 설계를 제공

rap

진단컨설팅

Requirement
Analysis & PoC
add

AI 데이터센터
디자인컨설팅

Al Datacenter
Design

Service

AI Full Stack에 특화된 AI데이터 센터 최적화 서비스(APO)를 적용하여 기술과 환경의 변화에 유연하게 대응할 수 있는 최적의 AI Full Stack플랫폼 구축 및 운영

AAI

AI 어플리케이션 구축 서비스

Al Application Implementation
AOI

AI Ops. SW 구축 서비스

AI Ops. SW Implementation
AII

AI 인프라 구축 서비스

AI Infrastructure Implementation
APO

AI 데이터센터
성능 최적화
서비스

AI Datacenter
Performance
Optimization
ADO

AI 데이터센터 운영 서비스

AI Datacenter Operations

엠키스코어 M-Pack
고객의 최고의 AI경험을 위한 컨설팅(진단/디자인) 및 서비스(구축, 최적화, 모니터링 및 운영)이며,
AI Full Stack 전체에 적용 가능한 제품입니다.

AI FullStack

하드웨어 인프라에서 소프트웨어까지 각 영역이 유기적으로 작동하도록 설계 및 구축해, 최상의 성능을 제공합니다. 영역별 독립적 제안/구축이 가능하며, 기존 환경과의 완벽한 통합으로 최고 성능을 달성합니다.
AI 풀스택 개발은 복잡한 과정입니다.
이는 유연한 배포와 운영을 지원하는 인프라 설계와 구축, AI 소프트웨어 기능 비교 및 맞춤화,
내부 컴포넌트 구조 이해와 적용 등 다방면의 작업을 필요로 합니다.
엠키스코어는 AI 기술의 변화에 깊이 이해하고, 개발환경, 배포, 운영, 모니터링의 비용과
노력을 줄일 수 있는 방법을 제공합니다. 또한, 오픈소스 기반 AI 플랫폼 설계로 기업이 기술과
환경 변화에 유연하게 대응할 수 있도록 최적의 AI 풀스택 플랫폼 도입을 지원합니다.

Consulting

rap
add

Service

aai
aoi
aii
apo
ado

AI Application

특정한 문제를 해결하거나 특정한 작업을 자동화하는 소프트웨어

07

Application Service

Consulting

rap
add

Service

aai
aoi
aii
apo
ado

AI OPS

AI모델을 개발하고 관리하는데 사용되는 소프트웨어 도구나 라이브러리로 모델 개발,훈련, 실행 관리를 단순화하고 효율화함

06

MLOps & 모델 최적화

05

AI/ML Framework

04

Toolkit & Library

Consulting

rap
add

Service

aai
aoi
aii
apo
ado

AI Infrastructure

AI 시스템을 구축하고 운영하기 위한 하드웨어 및 소프트웨어의 기반을 제공하는 역할

03

Middleware

02

OS & Base Solution

01

Hardware

Consulting

rap
add

Service

aai
aoi
aii
apo
ado

AI 워크로드 관리

AI 플랫폼을 구현하기 위해 여러 GPU에서 트레이닝 작업을 배포 및 오케스트레이션하는 데 필요한 인프라와 솔루션을 제공합니다.
효율적인 AI 클러스터 관리를 위한 Job Scheduler와 유연한 프로그램 배포 및 관리를 위한 오케스트레이션 솔루션을 통하여 고객사의 AI 클러스터를 관리할 수 있습니다.

Inference

LLM

Deep Neural
Networks

Logistic
Regression

Decision Trees

Naïve Bayes

Pre-trained Models

KOSMOS-1

CLIP

Flamingo

BLIP

PaLM-E

Bibliographic
Explorer

Litmaps

scite Smart
Citations

DagsHub

Papers with Code

ScienceCast

GPU Cluster

Slurm Cluster

Interactive
Session
Jupyter
ML Scripted
Workflow
NGC
Container
LLM
Training
Singularity
Enroot
Bare metal
Control Node
Primary
Slurmctl
Slurmdbd
HA
Secondary
Slurmdbd
Slurmdbd
Worker Node
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
Singularity
Enroot

K8S Cluster

Interactive
Session
Jupyter
ML Pipeline
Workflow
NGC
Container
LLM
Inference
Container
Container
Container
Control Node
Load Balancer (HA)
api-server
controller-manager
scheduler
etcd
api-server
controller-manager
scheduler
etcd
api-server
controller-manager
scheduler
etcd
Worker Node
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU
GPU

CPU/GPU

Infiniband/Ethernet/Slingshot

Software-Defined Storage

우리 “mkiscore” 회원에게 무차별적으로 보내지는 타사의 메일을 차단하기 위해, 본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나 그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며, 이를 위반 시 정보통신망법에 의해 형사처벌됨을 유념하시기 바랍니다.

게시일 2021년 3월 19일

01

AI Infra Structure (GPU Cluster)

Hardware

AI 시스템을 구축하고 운영하기 위한 하드웨어 및 소프트웨어의 기반을 제공하는 역할을 합니다.

Server

대규모 언어 모델 트레이닝을 위해, 클러스터 내의 계산 서버는 수천 개의 GPU로 계산 워크로드를 분할합니다. 이 서버들은 작업 정보를 신속히 교환하기 위해, 짧은 대기 시간과 큰 대역폭을 제공하는 고속 네트워크와 병렬 분산 파일 시스템이 장착된 software-defined 스토리지를 사용합니다. GPU는 병렬 처리 능력을 기반으로 슈퍼컴퓨팅 수준의 확장성을 제공하며, 생성형 AI 인프라의 핵심으로 광범위한 AI용 GPU 소프트웨어 스택을 지원합니다. 이를 통해 AI 훈련 및 추론을 가속화하고, 안정적인 AI 어플리케이션 실행을 위한 다양한 라이브러리와 프레임워크를 제공하는 GPU 소프트웨어 플랫폼을 활용할 수 있습니다. # GPU

Network

AI 인프라 구성 요소를 이어주는 초고속 네트워크는 짧은 대기시간과 큰 대역폭을 제공할 수 있어야 하며, 고도로 병렬화 된 알고리즘 및 큰 사이즈의 데이터세트를  빠르게 처리할 수 있어야 합니다. Infiniband네트워크는 전세계 TOP500 슈퍼컴퓨터인터커넥터 부문에서 40% 이상의 점유율을 차지하여 성능과 안정성에서 우수함을 인정받았으며 빠른 속도를 요하는 AI 환경에 적용 가능합니다. 그 외 Gigabit Ethernet(기가비트 이더넷)을 사용하기도 합니다. # RDMA # Sharp # UFM

Storage & Shared Filesystem

AI 모델 학습 데이터는 GDS(GPU Direct Storage) 기능이 지원되는 소프트웨어 정의 스토리지를 통해 AI 어플리케이션의 데이터를 고속으로 서비스할 수 있습니다. 스토리지에는 WekaIO, Lustre와 같은 병렬파일시스템이 탑재되어 AI 학습 데이터를 여러 노드에서 병렬 분산 처리하여 빠르게 서비스합니다. GDS는 스토리지와 GPU 메모리 사이에 직접 접근할 수 있는 데이터 경로를 제공하는 기술로, CPU 메모리의 바운스 버퍼를 거치지 않고 DMA 전송을 수행하여 시스템의 대역폭을 높이고 지연시간과 CPU 부하를 줄여주어 AI 데이터의 불필요한 복제, 읽기/쓰기의 병목을 해결해 줍니다. # WekaIO # Lustre # ClusterStor E1000

02

AI Infra Structure (GPU Cluster)

OS & Base Solution

GPU 서버에 설치되어 가상화 환경, 컨테이너 기술 그리고 운영 체제를 제공하는 기본 소프트웨어 솔루션을 말합니다. 이는 서버의 핵심적인 운영 및 관리 기능을 지원하여, 효율적인 리소스 활용과 안정적인 시스템 운영을 가능하게 합니다.

Operating System

Container

VDI

Virtualization

03

AI Infra Structure (GPU Cluster)

MiddleWare

Middleware는 GPU 클러스터와 같은 인프라 구조의 관리를 용이하게 하는 소프트웨어입니다. 이는 인프라의 효율적인 모니터링과 워크로드 관리를 가능하게 하는 도구들을 포함하며, 시스템의 성능을 최적화하고 자원 사용을 극대화합니다. Middleware는 다양한 시스템과 애플리케이션 간의 통신을 중재하며, 복잡한 네트워크 환경에서의 데이터 교환, 작업 스케줄링 그리고 자원 할당 등을 효과적으로 조율합니다. 이러한 소프트웨어는 인프라의 운영을 간소화하고, 관리의 복잡성을 줄여주며, IT 환경의 전반적인 안정성과 성능을 향상시키는 데 중요한 역할을 합니다.

MPI

Workload

Mgmt & Monitoring

M-OWL은 Zabbix와 같은 모니터링 시스템을 보완해, 맞춤형 대시보드, 다양한 그래프와 상세한 리포트를 제공하는 도구입니다.
이를 통해 사용자는 모니터링 데이터를 보다 쉽게 이해하고 분석할 수 있습니다.

Zabbix는 Opensource 기반의 모니터링 솔루션입니다.
OS, HW, Application, GPU, PDU, 항온항습 등 전반적인 IT인프라에 대한 데이터를 수집하고 관리할 수 있습니다. 대규모 IT 인프라 환경 및 HPC/AI의 통합 모니터링을 제공합니다.

04

AI Ops (Foundation Service)

Toolkit & Library

인공지능 및 기계학습 개발을 위한 소프트웨어 컬렉션으로, 모델 개발과 구현을 간소화하는 다양한 함수, 클래스, 및 모듈을 제공합니다. 이러한 라이브러리들은 데이터 전처리, 알고리즘 구현, 모델 훈련과 평가 그리고 예측 수행 같은 과정을 보다 효율적으로 만들어주며 개발자가 복잡한 AI 기능을 쉽고 빠르게 구현할 수 있도록 지원합니다. AI 라이브러리의 활용은 개발 시간 단축 및 프로젝트의 성공률을 높이는 데 기여합니다.

05

AI Ops (Foundation Service)

AI/ML Framework

AI/ML 프레임워크는 인공지능 및 기계학습 알고리즘의 개발과 실행을 지원하는 소프트웨어 도구들의 집합입니다. 이는 데이터 전처리부터 모델 개발, 학습, 평가(정확도, 정밀도, 재현율 측정), 그리고 최종적인 모델 배포에 이르기까지 전 과정에 필요한 기능을 제공합니다. AI/ML 프레임워크를 사용함으로써 개발자는 복잡한 데이터 분석과 모델링 작업을 더욱 효율적이고 체계적으로 수행할 수 있으며, 이를 통해 더 높은 성능의 AI 솔루션을 빠르게 구현할 수 있습니다.

06

AI Ops (Foundation Service)

MLOps & 모델 최적화

07

AI Applications

Application Service

AI 데이터 플랫폼 도입을 고려하는 고객을 위한 솔루션입니다. 복잡한 데이터 관리, AI 모델 개발, 및 배포 프로세스를 간소화하며, 데이터 소스와 저장소 접근을 용이하게 합니다. 자동화된 지속적 통합(CI), 반복 학습(CT), 지속적 배포(CD)를 가능하게 하는 프레임워크로, 효율적인 협업과 비용 절감을 지원합니다. 엠키스코어는 다양한 산업 요구에 맞는 맞춤형 AI 플랫폼 설계 및 구현을 통해, 최신 AI 기술을 적용하여 고객의 비즈니스 변화를 선도할 수 있도록 지원합니다.

엠키스코어에 문의하기

Call Today

031-8009-0315 

Monday To Friday

9AM - 6PM