2026.03.05by 배종인 기자
AI 모델 운영비의 핵심 변수인 GPU 메모리 부담을 낮추기 위한 ‘양자화(Quantization)’ 경쟁이 대형언어모델(LLM)로 확산되는 가운데, 노타가 업스테이지의 ‘Solar-Open-100B’를 대상으로 한 양자화 모델을 허깅페이스에 공개했다. 모델 카드에 따르면 ‘Nota MoE Quantization’ 적용 시 가중치 메모리 풋프린트는 191.2GB에서 51.9GB로 줄었다. 성능 지표로는 위키텍스트-2 기준 PPL이 원본 6.06 대비 6.81로 제시됐다. 노타는 이를 MoE 구조에서 발생할 수 있는 양자화 왜곡을 줄이기 위한 기법이라고 설명했으며, 일부 보도에서는 과기정통부 ‘독자 AI 파운데이션 모델’ 프로젝트와 연계 및 특허 출원도 언급했다.
[열린보도원칙] 당 매체는 독자와 취재원 등 뉴스이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알려드립니다.
고충처리인 장은성 070-4699-5321 , news@e4ds.com
아직 회원이 아니신가요?
아이디와 비밀번호를 잊으셨나요?