■ 코히어와 개발한 초대형·경량형 2종과 엑사원 등 LLM 라인업 갖춰 … ‘에이전틱 AI’로 고객 비즈니스 혁신
■ 온프레미스 지원해 ‘소버린 AI’ 경쟁력 확보 … 금융·공공 등 시장 공략
■ 한국어, 영어 추론 능력에서 GPT-4o, 클로드 3.7 소넷 등 글로벌 LLM 앞질러
■ 23개 언어 지원 … 한국어 평가 테스트에선 온프레미스형 LLM 중, 현존 최고 수준 성능 보여
AX전문기업 LG CNS(064400, 대표 현신균)가 글로벌 AI 유니콘 기업 ‘코히어(Cohere)’와 손잡고 1,110억개의 파라미터를 갖춘 추론형 LLM(Large Language Model)을 공동 개발했다. 이번 LLM은 한국어, 영어 등 23개 언어를 지원하며, 추론 등 핵심 성능에서 글로벌 상위 모델을 뛰어넘는 결과를 보였다. LG CNS는 지난 5월 코히어와 70억개의 파라미터로 구성된 한국어 특화 경량 모델을 출시한 지 두 달 만에 초대형 모델을 연이어 발표하며 생성형 AI 역량을 다시 한 번 입증했다.
LG CNS는 금융, 공공 등 민감한 데이터를 다루는 국내 고객들의 비즈니스 혁신을 위해 글로벌 시장에서 역량을 인정받고 있는 코히어와 협력해 추론형 LLM을 개발했다. 추론형 LLM은 AI가 복잡한 문제에 대해 여러 변수를 고려한 논리적인 해답을 도출하는 모델로, AI가 스스로 판단하고 작업을 수행하는 ‘에이전틱 AI’ 서비스 구현에 필수적인 기술로 손꼽힌다.
■ 초대형·경량형 2종과 엑사원 등 LLM 라인업 갖춰 … ‘에이전틱 AI’로 고객 비즈니스 혁신
LG CNS는 코히어와 공동 개발한 초대형·경량형 2종의 LLM과 국내 대표 AI 모델인 LG AI연구원의 ‘엑사원(EXAONE)’ 등 LLM 라인업을 갖춰 고객이 맞춤형 에이전틱 AI 서비스를 만들 수 있는 기반을 마련했다. 에이전틱 AI는 AI가 스스로 판단, 추론해 복잡한 작업을 수행하는 차세대 인공지능으로 비즈니스 자동화, 최적화 등에 활용도가 높다.
LG CNS는 이번 LLM 개발을 위해 코히어의 기업용 LLM인 ‘커맨드(Command)’ 모델에 LG CNS가 국내 전 산업 분야에서 축적한 IT전문성과 AI 기술력을 결합했다. 특히, 코히어의 커맨드 모델은 이미 캐나다 최대은행 RBC(Royal Bank of Canada) 등에서 온프레미스1)와 클라우드 방식으로 사용되고 있어, 글로벌 기업에서 검증된 바 있다.
LG CNS는 LLM을 온프레미스 방식으로 제공해 고객사들이 민감한 데이터의 외부 유출 없이도 자체 인프라 내에서 안전하게 처리할 수 있도록 할 계획이다. 이번에 선보인 LLM은 모델 압축 기술을 통해 2장의 그래픽처리장치(GPU)만으로 구동이 가능하다는 장점도 갖췄다. 통상 파라미터 1,000억개 이상의 LLM에는 최소 4장의 GPU가 필요한 것으로 알려졌다. 이를 통해 고객사들은 회사의 비즈니스 환경에 최적화된 LLM을 효율적인 비용으로 확보하면서도, 데이터와 인프라 주권을 확보하는 ‘소버린 AI’를 실현할 수 있다. ‘소버린 AI’는 국가나 기업이 자체 인프라를 기반으로 자국의 언어, 법, 문화 등을 반영한 독립적인 AI를 만들어 운영하는 것을 말한다.
■ 한국어, 영어 추론 능력에서 GPT-4o, 클로드 3.7 소넷 등 글로벌 LLM 앞질러
양사가 개발한 LLM은 한국어와 영어에서 우수한 추론 능력을 보였다. 양사의 자체 테스트 결과, 추론 능력 검증 대표 벤치마크 테스트인 △Math500과 △AIME 2024 영역에서 한국어, 영어 모두 GPT-4o, GPT4.1, 클로드 3.7 소넷 등 글로벌 LLM보다 높은 점수를 기록했다.
‘Math500’은 대학 수준 이상의 수학문제 500개로 구성된 테스트로 AI가 얼마나 논리적으로 문제를 풀 수 있는지를 검증하며, ‘AIME 2024’는 미국의 수학 경시대회 문제를 활용해 AI의 수학적 추론 능력을 평가한다.
■ 23개 언어 지원 … 한국어 평가 테스트에선 온프레미스형 LLM 중, 현존 최고 수준 성능 보여
양사의 LLM은 한국어·영어·일본어·중국어는 물론 히브리어·페르시아어 등 소수 언어까지 총 23개 언어를 지원한다. 이 중, 한국어 평가 테스트에서는 온프레미스 방식의 LLM 중 현존 최고 수준의 성능(SOTA, State-of-the-Art)을 내는 것으로 나타났다.
한국어 평가 테스트인 △KMMLU △KO-IFEval에서 글로벌 LLM 대비 최고점을 달성했다. 특히, 파라미터 규모가 2배 이상 많은 Qwen3보다도 우수한 성능을 보였다. 복잡한 비즈니스 문제 해결과 한국어 기반의 정교한 소통이 가능해, 고객사의 업무 효율과 의사결정 품질을 획기적으로 개선할 수 있다.
‘KMMLU’는 한국어 이해 능력을 종합적으로 평가하는 지표다. 인문학·사회과학·응용과학 등 45가지 분야 전문가 수준의 지식을 담은 3만5천여개의 객관식 문제로 구성되어 있다. ‘KO-IFEval’는 구글과 예일대학교가 만든 ‘IFEval’을 한국어로 번역한 벤치마크 테스트로 LLM이 대화 내용을 얼마나 잘 이해하고 지시사항을 잘 따르는지를 평가한다. LG CNS는 코히어와의 지속적인 협력을 이어가며 LLM의 성능을 고도화해나갈 계획이다.
LG CNS AI클라우드사업부장 김태훈 전무는 “차별화된 AI 역량과 경쟁력을 바탕으로 고객의 비즈니스에 특화된 에이전틱 AI 서비스를 제공하고, 고객의 AX를 선도하는 최고의 파트너로 자리매김할 것”이라고 밝혔다.
※ 용어설명
1) 온프레미스(On-premise): 기업의 서버나 시스템을 클라우드가 아닌 회사 내부에 직접 설치해 운영하는 방식
<저작권자 ⓒ 한국인포맥스, 무단 전재 및 재배포 금지>
심아람 다른기사보기