더 많은 사람들이, 손쉽게, 비용 부담 없이

사용할 수 있는 AI를 향해

전 세계는 지금 AI 붐 속에 있습니다. 더 큰 모델, 더 복잡한 기능이 매일 등장하지만, 모든 문제가 “더 크게”로 풀리지는 않습니다. 빠르면서도, 비용 효율적인 AI가 진짜로 산업을 바꾸는 기술입니다. 스퀴즈비츠는 이 믿음으로, 모델 경량화와 추론 최적화 기술을 통해 AI가 크기와 비용의 한계를 넘어설 수 있도록 하는 데서 출발했습니다.


스퀴즈비츠의 Co-founder들은 AI 경량화·가속화 분야에서 검증된 전문가들입니다. NeurIPS, ICLR, CVPR, ECCV 등 Top-tier 학회에 경량화와 최적화 관련 연구를 지속적으로 발표하며 업계와 학계에서 실력을 인정받아 왔습니다. 매일 새로운 모델이 쏟아지는 시대에, 다양한 하드웨어에서 최적의 성능을 끌어내기 위해서는 알고리즘–소프트웨어–하드웨어 전반에 대한 깊은 이해가 필수입니다. 스퀴즈비츠는 GPU, CPU, NPU 등에서의 AI 연산 구조를 꿰뚫는 전문성을 바탕으로, 누구도 따라올 수 없는 탄탄한 기술력으로 세상에서 가장 빠르고 효율적인 AI를 만들고 있습니다.

Our Mission

전 세계적으로 AI는 빠르게 성장하고 있습니다. 모델은 거대해지고 기술의 범위는 매일 확장되고 있습니다.

끝없이 확장되는 AI의 가능성을 더 빠르게 실현하기 위해서는, 크기와 비용의 제약에서 벗어나야 합니다.
스퀴즈비츠는 경량화와 최적화 기술을 통해 AI의 가능성을 확장한다는 꿈에서 시작되었습니다.

Our Vision

더 많은 사람들이 AI를 실제 업무·일상에서 자연스럽게 활용하고,

합리적인 비용으로 그 효율과 편리함을 직접 느낄 수 있도록 하는 것이 우리의 목표입니다.

스퀴즈비츠는 경량화·최적화 기술을 통해 AI 비즈니스가 더 다양한 현장과 더 많은 사람들에게 활용될 수 있도록 돕는 파트너가 되겠습니다.

Story

2025 행복한 중기 일자리 대상 수상 후기

스퀴즈비츠가 2025 행복한 중기 일자리 대상에서 중소벤처기업부 장관상을 수상한 후기를 소개합니다. 조직문화, 청년 인재 육성, 일자리 창출 노력과 수상 현장을 생생하게 확인해보세요!

Intel® Gaudi® Hands-on Workshop | SqueezeBits x Lablup과 함께한 Gaudi 실습 후기

SqueeezeBits와 Lablup이 함께한 Intel® Gaudi® 핸즈온 세션의 생생한 후기를 확인해보세요. Backend.AI의 안정적인 환경에서 Gaudi향 모델 경량화 & 추론 최적화까지 실제 NPU 도입 이후 활용하는 단계에서 경험할 수 있는 내용들로 구성되어 있습니다.

Yetter 브랜딩 구축기 (1) − 브랜드 아이덴티티

생성형 AI API 서비스 Yetter의 브랜딩 구축기. 내부 설문부터 컬러 시스템, 로고 제작까지 브랜드 아이덴티티를 만든 과정을 공유합니다.

Introducing rebellions ATOM™-MAX

Introducing ATOM™-Max, rebellions’ next-generation NPU designed for high-performance AI inference. Learn how its runtime, profiling tools, and PyTorch-native integrations enable developers to run and serve models efficiently without sacrificing usability.

Winning both speed and quality: How Yetter deals with diffusion models

Explore how the Yetter Inference Engine overcomes the limitations of step caching and model distillation for diffusion models. We analyze latency, diversity, quality, and negative-prompt handling to reveal what truly matters for scalable, real-time image generation.

[Intel Gaudi] #6. GEMM, Attention, vLLM on Gaudi

Explore how Intel’s new Gaudi-3 compares to Gaudi-2, NVIDIA A100, and H100. We analyze real-world GEMM efficiency, attention performance, and LLM serving results to uncover what truly matters for AI inference and training workloads.

NEWS

리벨리온·레드햇, 국내 첫 vLLM 밋업 개최··· "AI 위한 공동의 협력에 기여"

김형준 스퀴즈비츠 대표는 “vLLM의 양자화 방식은 직접 양자화를 거친 모델을 활용하거나, 자체적인 LLM 컴프레서를 활용한다. LLM 컴프레서는 레이어별로 순차적인 추론과 양자화 스케일 탐색을 통해 텐서 압축 포맷으로 저장한다. vLLM은 이를 자동 인식해 적절하게 추론한다”라고 설명을 시작했다. 

“K-소프트웨어 어벤져스 만든다”… 과기정통부, 시스템 SW 업계 간담회

과학기술정보통신부(장관 유상임)는 지난 25일 서울 프레지던트호텔에서 ‘시스템 소프트웨어(SW) 경쟁력 강화를 위한 전문가 간담회’를 열고, AX(Autonomous eXperience) 시대를 선도할 시스템 SW 산업의 발전 방안에 대해 산·학·연 전문가들과 심도 있는 논의를 진행했다.

0 / 4