LG, 초거대 멀티모달 AI ‘엑사원 2.0’ 공개 ...

LG, 초거대 멀티모달 AI ‘엑사원 2.0’ 공개
기존 모델 대비 학습 데이터양 6배 이상 늘리고 추론 처리 시간·비용은 절감

239

[방송기술저널 전숙희 기자] LG AI연구원이 7월 19일 서울 강서구 마곡 LG사이언스파크 컨버전스홀에서에서 개최한 ‘LG AI 토크 콘서트 2023’에서 초거대 멀티모달(Multimodal) AI ‘엑사원(EXAONE) 2.0’을 공개했다.

이번 엑사원 2.0은 지난 2021년 12월 첫선을 보인 엑사원을 계속해서 연구·개발해 진화시킨 것이다.

엑사원 2.0은 파트너십을 통해 확보한 특허, 논문 등 약 4,500만 건의 전문 문헌과 3억 5천만 장의 이미지를 학습했으며, 앞으로도 저작권, 신뢰성 등 AI 윤리 원칙을 준수하며 데이터를 학습할 계획이다.

LG AI연구원은 현존하는 전문 지식 데이터의 상당수가 영어로 되어 있는 점을 고려해 ‘엑사원 2.0’을 한국어와 영어를 동시에 이해하고 답변할 수 있는 이중 언어(Bilingual) 모델로 개발했고, 학습 데이터양도 기존 모델 대비 4배 이상 늘려 성능을 높였다.

또한, 초거대 AI의 고비용 이슈를 해결하기 위해 대규모 언어 모델(LLM)과 멀티모달 모델의 경량화 및 최적화를 위해 노력했다. 그 결과, 엑사원 2.0의 언어 모델은 기존 모델과 동일한 성능을 유지하면서도 추론(Inference) 처리 시간은 25% 단축하고, 메모리 사용량은 70% 줄여 비용을 약 78% 절감했다.

언어와 이미지 간의 양방향 생성이 가능한 멀티모달 모델은 이미지 생성 품질을 높이기 위해 기존 모델 대비 메모리 사용량을 2배 늘렸지만, 추론 처리 시간을 83% 단축해 약 66%의 비용 절감을 달성했다.

LG AI연구원은 “언어와 이미지 간의 양방향 생성이 가능한 멀티모달 모델은 이미지 생성 품질을 높이기 위해 기존 모델 대비 메모리 사용량을 2배 늘렸지만, 추론 처리 시간을 83% 단축해 약 66%의 비용 절감을 달성했다”면서 “엑사원 2.0은 원하는 용도나 예산에 맞게 모델의 크기부터 종류, 사용 언어까지 맞춤형으로 설계할 수 있다”고 설명했다.

배경훈 LG AI연구원장은 “LG는 국내에서 유일하게 이중 언어 모델과 양방향 멀티모달 모델을 모두 상용화한 기업이며, 세상의 지식을 이해하고 발견하는 상위 1%의 전문가 AI를 개발하고 있다”고 전했다.

이어 “국내외 파트너사와의 협력을 통해 실질적인 성공 사례를 만들어 가며 ’다른 생성형 AI와는 차별화한 고객 가치’를 창출하는 글로벌 경쟁력을 갖춘 AI 기업으로 발전해 나갈 것”이라고 강조했다.