출처: 토큰포스트
기업들이 대형 언어 모델(LLM)을 활용해 고급 서비스를 제공하려는 움직임이 활발해지고 있지만, 높은 연산 비용이 여전히 큰 부담으로 작용하고 있다. 이러한 문제를 해결하기 위한 새로운 접근 방식으로 ‘체인 오브 엑스퍼츠(Chain-of-Experts, CoE)’ 프레임워크가 주목받고 있다. 이 방식은 LLM의 자원 효율성을 높이면서도 복잡한 추론 작업에서 정확도를 개선하는 것을 목표로 한다.
CoE는 기존의 모델보다 더 정교한 방식으로 전문가 노드를 활성화한다. 일반적인 밀집 모델(Dense Model)은 모든 파라미터를 동시에 사용하는 반면, 혼합 전문가 모델(Mixture-of-Experts, MoE)은 특정 전문가 그룹만 선택적으로 활용한다. MoE 방식은 연산 비용을 줄이는 데 효과적이지만, 전문가들 간의 상호작용이 제한적이라는 단점이 있다. 반면 CoE는 전문가 노드를 ‘순차적으로’ 활성화하는 방식을 도입해 이 한계를 보완했다.
예를 들어, CoE는 입력 데이터를 처리할 첫 번째 전문가 그룹을 선택한 뒤, 이들이 도출한 중간 결과를 다음 수준의 전문가들에게 전달하는 방식으로 동작한다. 이러한 단계적 접근법을 통해 전문가 간 협업이 가능해지고, 문맥을 고려한 답변을 생성할 수 있는 역량이 강해진다. 특히 수학적 추론이나 논리적 추론과 같은 복잡한 작업에서는 이전 단계의 분석 결과를 기반으로 보다 정교한 답을 도출할 수 있게 된다.
최근 연구에 따르면 CoE 방식은 기존의 밀집 모델이나 MoE보다 연산 효율성과 메모리 사용 측면에서 뛰어난 성능을 보였다. 동일한 연산 자원과 메모리 환경에서 CoE를 적용할 경우 더 높은 정확도를 달성할 수 있으며, 일부 실험에서는 17.6%의 메모리 절감 효과도 확인됐다. 또한 CoE의 계층적 구조 덕분에 전문가 노드 간의 조합이 더욱 다양해져 기존 모델보다 더 복잡한 작업을 수행할 수 있는 가능성이 커졌다.
이와 같은 장점 덕분에 CoE는 인공지능(AI) 기반 기업들에게 보다 비용 효율적인 LLM 활용 전략을 제공할 수 있을 것으로 기대된다. 복잡한 문제 해결 능력을 강화하면서도 기업이 부담해야 하는 하드웨어와 연산 자원을 절감할 수 있기 때문에, AI 기술을 보다 넓은 산업군으로 확산하는 데 기여할 가능성이 크다는 평가다. CoE가 AI 모델의 효율성 문제를 해결하는 대안으로 자리 잡을 수 있을지 주목된다.