뉴스 IT 뉴스

[IT 뉴스] 코딩에 진심인 가성비 끝판왕, Qwen3.6-35B-A3B 심층 리뷰

EVUELA 2026년 04월 20일 4회 2시간 전
[IT 뉴스] 코딩에 진심인 가성비 끝판왕, Qwen3.6-35B-A3B 심층 리뷰

요즘 오픈소스 AI 모델 생태계의 발전 속도가 무섭다. 최근 알리바바(Alibaba) Qwen 팀에서 2026년 4월 14일에 새롭게 공개한 Qwen3.6-35B-A3B 모델은 그중에서도 꽤 흥미로운 기술적 성취를 보여준다. 평소 로컬 LLM의 발전 양상을 주의 깊게 보고 있는데, 이번 모델은 체급 대비 성능 면에서 주목할 만한 점이 많다.

1. MoE 아키텍처: 350억 개의 파라미터, 하지만 활성화는 단 30억 개

이 모델의 이름에 붙은 'A3B'가 핵심포인트다. 바로 MoE(Mixture-of-Experts, 전문가 혼합) 아키텍처를 채택했다는 뜻이다.

전체 파라미터(Total Parameters)는 35B(350억 개)로 상당히 큰 규모지만, 실제 추론 시 활성화되는 파라미터(Active Parameters)는 3B(30억 개)에 불과하다. 전체 용량의 약 8.6%만으로 동작하기 때문에, 일반적인 데스크탑 GPU 환경에서도 무거운 밀집형(Dense) 모델 수준의 답변 품질을 훨씬 빠르고 가볍게 얻어낼 수 있다.

2. 대형 모델을 위협하는 에이전트 코딩(Agentic Coding) 성능

가장 눈에 띄는 것은 코딩 능력이다. 공식 릴리즈 및 벤치마크 정보에 따르면, 에이전트 기반 코딩 능력에서 파라미터가 훨씬 큰 Qwen3.5-27BGemma4-31B와 맞먹거나 이를 뛰어넘는 퍼포먼스를 보여준다.

  • SWE-bench Verified: 73.4점 기록

  • Terminal-Bench 2.0: 51.5점 기록

특히 자체 웹 코드 생성 벤치마크인 QwenWebBench에서는 1397점이라는 동급 최고 수준의 점수를 기록했다. 코드 자동 완성이나 버그 수정 같은 단순 작업을 넘어, 복잡한 프로젝트 구조를 이해하고 코드를 작성하는 에이전트 역할로서의 활용도가 매우 높다는 것을 시사한다.

3. 멀티모달 & Thinking 모드 네이티브 지원

단순한 텍스트 처리에서 끝나지 않는다. 3B라는 가벼운 활성 파라미터 환경에서도 자연스러운 멀티모달(Multimodal) 인지 능력을 갖추고 있다.

또한, 복잡한 문제를 풀 때 내부적으로 사고하는 과정을 거치는 Thinking 모드와 즉각적인 답변을 내놓는 Non-thinking 모드를 모두 지원한다. 사용자의 필요에 따라 추론의 깊이와 속도를 조절할 수 있어 활용 범위가 훨씬 넓어졌다.

거대 자본이 투입되는 클로즈드(Closed) 모델들 사이에서, 이 정도의 효율성과 퍼포먼스를 내는 오픈소스 모델의 등장은 언제나 반갑다. 앞으로 에이전트 기반 코딩 시장에서 어떤 변화를 만들어낼지 기대가 된다.

댓글 0개