본문 바로가기

카테고리 없음

Qwen3, 알리바바가 공개한 오픈소스 AI 모델의 진화

 

 

Qwen3, 알리바바가 공개한 오픈소스 AI 모델의 진화

2025년 4월, 알리바바 클라우드가 대형 언어 모델(LLM) 시리즈인 Qwen3를 공개했다. 이전 버전인 Qwen2.5에서 기술적으로 진일보한 이번 시리즈는 성능뿐만 아니라, 오픈소스 정책과 하이브리드 추론 기능 등을 내세우며 주목받고 있다. GPT-4와 같은 고성능 AI 모델이 상업 서비스에 집중되어 있는 상황에서, Qwen3는 상업적 활용이 가능한 오픈소스 대형 모델이라는 점에서 차별화된다.

 

Qwen3 주요 특징

Qwen3는 총 8종의 모델로 구성된다. 0.5B에서 32B 규모의 Dense 모델 6종과, 30B-A3B, 235B-A22B 규모의 Mixture-of-Experts(MoE) 모델 2종이 포함된다. 특히 MoE 모델은 입력에 따라 필요한 전문가 모듈만 활성화하는 방식으로 연산 효율을 높인다.

주요 기능 중 하나는 하이브리드 추론(Hybrid Reasoning)이다. 이 기능은 간단한 질문에는 빠른 응답을, 복잡한 문제에는 단계적 사고를 기반으로 한 응답을 제공할 수 있도록 설계됐다. 사용자는 명령어(/think, /no_think)를 통해 두 가지 모드 간 전환이 가능하다.

지원 언어도 다양하다. 총 119개 언어와 방언을 지원하며, 이로 인해 글로벌 서비스나 현지화 프로젝트에 적용할 수 있는 범용성을 갖췄다.

Qwen3 설치 및 활용 가이드

1. 설치 방법 (URL 참고)

2. 온라인 체험

chat.qwen.ai 에서 별도 설치 없이 웹 기반으로 테스트 가능

Qwen3 vs GPT-4: 주요 비교

항목 Qwen3 GPT-4 (Turbo 기준)
오픈소스 여부 O (Apache 2.0) X (비공개)
라이선스 비용 무료 유료
추론 모드 하이브리드 (Thinking/Non) 일반
최대 토큰 길이 최대 128K 약 128K

성능과 기술적 기반

Qwen3의 235B 모델은 약 36조 개의 토큰으로 학습되었으며, 이는 전작인 Qwen2.5의 두 배 수준이다. 학습 데이터는 웹 크롤링, PDF 문서, 코드, 수학 문제 등 다양한 출처를 바탕으로 구성되었다.

벤치마크 결과에 따르면 Qwen3-235B 모델은 ArenaHard, AIME, BFCL 등에서 OpenAI o3-mini 및 DeepSeek R1 모델보다 우수한 성능을 보인 것으로 알려져 있다.

정리 및 전망

  • 상업적 활용이 가능한 오픈소스 LLM
  • 하이브리드 추론 모드를 통한 유연한 사용 방식
  • 다양한 모델 크기와 구조
  • 자유로운 배포 및 로컬 실행 환경 제공

Qwen3는 단순한 오픈소스 LLM이 아니다.
실험적 모델에서 실전 서비스로 확장 가능한 실용형 인공지능 모델로 평가받고 있으며, 오픈소스 AI 생태계의 확장과 경쟁력 확보에 기여하고 있다.