
리벨리온즈
Rebellions
LLM 연산 효율을 극대화한 고성능·저전력 NPU 기반의 AI 가속기 솔루션
유료PyTorchTensorFlowvLLMLLM 기반멀티모달
웹사이트 방문하기rebellions.ai
데이터로봇와(과) 비교하기소개
리벨리온은 최근 SK텔레콤의 AI 반도체 자회사 '사피온(SAPEON) 코리아'와의 합병을 완료하여 통합 법인으로 출범했습니다. 차세대 칩 'REBEL'은 삼성전자의 HBM3E를 탑재하여 Llama 3.1 및 DeepSeek-R1과 같은 최신 MoE 아키텍처 지원을 대폭 강화했습니다.
활용 워크플로우
입력
Hugging Face/PyTorch 기반 LLM 모델 가중치ONNX 및 TensorFlow 기반의 사전 학습된 그래프분산 추론을 위한 하이퍼스케일 데이터 센터 트래픽KV Cache 최적화가 필요한 대규모 컨텍스트 데이터
리벨리온즈
Rebel-SDK(컴파일러)를 통한 하드웨어 친화적 그래프 변환Chiplet 기반 아키텍처 내 연산 유닛별 작업 로드밸런싱고대역폭 인터커넥트를 활용한 칩 간 초고속 데이터 통신Smart Prefetch 기술 기반의 메모리 대역폭 병목 현상 제거혼합 정밀도(Mixed Precision) 및 MoE 동적 라우팅 가속
출력
와트당 토큰 처리량(TPS/Watt)이 최적화된 추론 결과Llama4/DeepSeek-R1급 초거대 모델의 저지연 응답실시간 전력 소비 및 연산 효율 모니터링 데이터KT Cloud 및 삼성 파운드리 연계형 가속화 비트스트림
Hyper-Scale Scaling
수평적 확장을 통해 Llama 400B 이상의 모델을 다중 칩 클러스터에서 단일 노드처럼 구동
MoE Efficiency Path
DeepSeek-R1과 같은 전문가 혼합(MoE) 모델 구동 시 활성 파라미터만 선별 가속하여 전력 소모 극소화
Edge-to-Cloud Integration
온프레미스 데이터 센터와 퍼블릭 클라우드 간의 하드웨어 추상화 계층(HAL)을 통한 원활한 배포
핵심 차별점: 칩렛(Chiplet) 설계 기반의 모듈형 아키텍처로 거대 파라미터 모델을 경쟁사 대비 3배 이상의 전력 효율로 처리하는 AI 가속기
주요 기능
- 사피온 합병을 통한 국내 최대 AI 반도체 통합 법인 출범
- HBM3E 탑재 및 삼성전자 4nm 공정 기반의 차세대 칩 'REBEL' 개발
- 엔비디아 GPU 대비 5배 이상의 우수한 전력 효율성(전성비)
- vLLM 및 PyTorch Native 지원을 통한 익숙한 개발 환경 제공
- MLPerf 벤치마크를 통해 검증된 글로벌 수준의 추론 성능
장점 & 단점
웹검색을 통해 수집된 사용자 피드백 정보입니다
가격 정보
유료시작 가격: 가격 문의
AI 반도체(NPU) 및 하드웨어 솔루션을 제공하는 기업으로, 정찰제 가격 대신 비즈니스 요구사항에 따른 맞춤형 견적(Contact Sales)을 제공합니다. 대규모 데이터 센터나 연구소 등 도입 규모에 따라 가격이 결정되며, 소프트웨어 개발 키트(SDK)와 기술 지원이 포함될 수 있습니다. 일반 사용자를 위한 무료 플랜은 없으나 파트너십을 통한 기술 검토가 가능합니다.
활용 사례
- 국가 주도 소버린 AI 인프라 구축
- 금융/의료 전용 대규모 프라이빗 LLM 구축
- 글로벌 CSP 대상 AI 가속기 공급
대상 사용자
하이퍼스케일 데이터 센터
연동 서비스
PyTorchTensorFlowONNXHugging FaceKT CloudSamsung Foundry
태그
비디오 생성API개발자 도구클라우드
사용자 리뷰
리뷰를 불러오는 중...
대안 도구
이 도구 대신 사용할 수 있는 대안



