알리바바, ‘QwQ-32B’ 오픈 소스 AI 출시… 성능·효율성 강화

출처: 토큰포스트

중국 전자상거래 대기업 알리바바가 새로운 오픈 소스 인공지능(AI) 모델인 ‘QwQ-32B’를 출시했다. 이 모델은 320억 개의 매개변수를 갖춘 AI로, 강화 학습(Reinforcement Learning, RL)을 통해 복잡한 문제 해결 능력을 향상시키는 것이 특징이다.

이번에 공개된 QwQ-32B는 오픈웨이트 형태로 제공되며, AI 개발자들은 허깅페이스(Hugging Face)와 모델스코프(ModelScope)에서 아파치 2.0(Apache 2.0) 라이선스로 접근할 수 있다. 이는 연구 및 상업적 활용이 모두 가능하다는 의미로, 기업들이 이 모델을 기반으로 제품과 서비스를 개발할 수 있다.

QwQ-32B는 지난해 11월 알리바바가 처음 선보인 ‘QwQ(Qwen-with-Questions)’ 모델의 최신 버전이다. 초기 모델은 수학 및 코딩 문제에 강점을 보였으나, 비교적 높은 연산 자원이 필요했고 일부 프로그래밍 과제에서는 오픈AI(OpenAI)의 경쟁 모델보다 성능이 뒤처지는 한계를 보였다. 그러나 이번에는 다단계 강화 학습을 적용하여 계산 효율성을 높이고 전반적인 문제 해결 능력을 강화했다.

특히, QwQ-32B는 최소한의 연산 자원으로도 오픈AI의 ‘o1-mini’ 및 중국 AI 연구소 딥식(DeepSeek)의 ‘DeepSeek-R1’과 경쟁할 수 있는 성능을 제공하는 것이 특징이다. 예를 들어, DeepSeek-R1이 가동하는 데 1500GB 이상의 가상 메모리(vRAM)가 필요하지만, QwQ-32B는 단 24GB의 vRAM만으로 구동될 수 있어 상업적 활용 가능성이 더욱 높아졌다.

기업들에게 QwQ-32B는 데이터 분석, 전략 기획, 소프트웨어 개발 및 자동화 솔루션 등 다양한 분야에서 강력한 AI 도구가 될 것으로 보인다. 또한 오픈 소스로 제공되기 때문에 특정 기업의 기술적 종속성을 피하면서도 맞춤형 조정을 통해 최적화할 수 있다는 장점이 있다.

AI 커뮤니티에서도 QwQ-32B에 대한 반응은 긍정적이다. AI 개발자들은 소셜미디어를 통해 이 모델이 기존 대형 AI보다 훨씬 가벼우면서도 견줄 만한 성능을 보인다는 점을 강조했다. 일부 전문가들은 “DeepSeek-R1의 20분의 1 크기에도 불구하고 경쟁력을 갖춘 모델”이라며 칭찬을 아끼지 않았다.

알리바바는 향후 QwQ-32B의 성능을 더욱 끌어올리기 위해 강화 학습 적용 범위를 확대하고, 보다 정교한 AI 모델 구현을 위한 연구를 지속할 계획이다. AI 시장에서 점점 강화되고 있는 추론 모델 경쟁 속에서, QwQ-32B가 어떤 성과를 거둘지 주목된다.

원문보러가기(클릭)

Latest articles

Related articles

문의하기 버튼