영상제작국
press@alphabiz.co.kr | 2026-03-03 11:17:02
[알파경제 = 영상제작국] LG AI연구원이 텍스트와 시각 정보를 동시에 이해하고 처리하는 비전언어모델(VLM) '엑사원(EXAONE) 4.5'를 올해 상반기 중 오픈 웨이트 모델로 공개할 예정입니다. 임우형 LG AI연구원 상무는 현지시간 1일 스페인 바르셀로나에서 열린 간담회에서 "엑사원 4.5는 모달리티 확장을 통해 동급 크기의 오픈 웨이트 모델 중 글로벌 최고 수준의 성능을 갖출 것"이라고 발표했습니다.
이번에 공개될 엑사원 4.5는 향후 고도화 과정을 거쳐 한국형 휴머노이드 로봇인 '케이팩스(KAPEX)'의 두뇌 역할을 수행할 것으로 전망됩니다. LG 측은 이를 기점으로 가상 세계를 넘어 실제 물리적 환경에서 상호작용하는 '피지컬 AI' 시대를 본격적으로 주도한다는 방침을 세우고 있습니다.
산업 현장의 데이터 부족 문제를 해결하기 위한 개발 인프라 개선 성과도 구체화되었습니다. 임 상무는 '데이터 파운드리' 구축을 통해 현업 전문가들의 선호도를 25% 이상 향상시켰다고 밝혔습니다. 특히 인공지능 학습의 주요 쟁점인 저작권과 편향성 문제를 해결하기 위해 '데이터 컴플라이언스 에이전트'를 독자 개발하여 운영 중입니다.
해당 에이전트는 데이터의 출처, 라이선스, 저작권을 자동으로 검토하며 인간 전문가 대비 비약적인 효율성을 입증했습니다. 상세한 성능 비교 지표는 다음과 같습니다.
임 상무는 엑사원 4.5의 구조 설계와 관련해 "엑사원 1.0 시절부터 멀티모달 연구를 지속해왔다"며 "비전 인코더 결합 등 구조 설계부터 모델 학습까지 전 과정을 완전히 자체적으로 개발하고 있다"고 강조했습니다. LG AI연구원은 이러한 자체 기술력을 바탕으로 모델의 신뢰성과 효율성을 동시에 확보해 나갈 계획이라고 전했습니다.
[ⓒ 알파경제. 무단전재-재배포 금지]