차호정 교수팀, 차세대 모바일 증강 현실을 위한 AI 모델 최적화 기술 'ARIA' 개발
- 2025.07.02
[사진 1. ACM MobiSys 2025 최우수 논문상 수상 (왼쪽부터) 차호정 교수, 정찬영, 이제호, 김건중 대학원생]
인공지능융합대학 컴퓨터과학과 차호정 교수 연구팀이 모바일 증강 현실(AR) 애플리케이션의 새로운 지평을 열 비전 파운데이션 모델(Vision Foundation Model, VFM) 추론 최적화 시스템인 ARIA를 개발했다. 이 기술은 모바일 환경에서 VFM의 성능과 효율성을 극대화해 사용자에게 더욱 몰입감 있고 즉각적인 AR 경험을 제공하는 데 필수적인 기술 진보로 평가되며, 향후 모바일 AI 및 AR 기술 발전에 중요한 기여를 할 것으로 기대된다.
연구 성과는 지난 6월 23일부터 27일까지 미국 캘리포니아주 애너하임에서 열린 모바일 시스템 분야 세계 최고 권위의 학술대회인 ACM MobiSys 2025에서 발표됐으며, 발표 논문 'ARIA: Optimizing Vision Foundation Model Inference on Heterogeneous Mobile Processors for Augmented Reality'는 최우수 논문상(Best Paper Award)을 수상하며 연구의 독창성과 우수성을 인정받았다.
기존 모바일 AR 애플리케이션에 주로 활용되던 합성곱 신경망(Convolutional Neural Network, CNN) 기반 모델은 학습 데이터셋에 대한 높은 의존성으로 인해 다양한 사용자 환경에서 성능 저하를 일으키는 한계가 있었다.
이러한 문제를 해결하기 위해 ARIA는 뛰어난 일반화 능력을 지닌 VFM을 모바일 AR에 최초로 도입하고, 이를 모바일 기기 환경에 최적화하는 데 성공했다. VFM은 방대한 데이터 학습을 통해 복잡한 시각 정보를 정교하게 인지·분석하고 픽셀 단위 깊이 정보와 객체 분할 등 고품질 시각 예측을 제공해, 한층 더 고차원적이고 몰입도 높은 AR 경험을 가능하게 한다.
그러나 VFM의 방대한 계산량은 모바일 기기의 한정된 자원(배터리, 연산 성능)에 큰 부담을 줘 실시간성과 정확도 유지에 어려움을 초래해 왔다. 특히 GPU는 높은 지연 시간이, NPU는 정확도 손실을 야기하는 등 모바일 기기 내 이기종 프로세서 활용에도 뚜렷한 한계가 존재했다. ARIA는 이러한 모바일 기기의 난제를 해결하기 위해 개발됐다.
[사진2. ARIA 시스템 동작 과정]
ARIA는 모바일 기기의 이기종 프로세서인 GPU와 NPU 각각의 강점을 활용하는 병렬 및 선택적 추론 방식을 제안했다. GPU는 주기적으로 전체 프레임 예측을 수행하고, NPU는 움직이는 객체 등 동적 영역을 저지연으로 업데이트한다. 이 방식을 효과적으로 구현하기 위해 ARIA는 세 가지 핵심 모듈을 설계했다.
첫째, 동적 영역 탐지 모듈은 사용자 환경 변화 속에서 중요한 동적 영역을 식별해 효율적으로 처리한다. 둘째, 동적 인식 시공간 특징 정렬 모듈은 이종 프로세서의 예측 결과를 매끄럽게 통합해 일관된 AR 경험을 제공한다. 셋째, 동적 실행 스케줄링 모듈은 시스템의 런타임 상황을 고려해 작업을 최적화함으로써 지속적인 고성능을 유지한다.
ARIA는 모바일 장치에서 고품질 VFM 추론을 가속화한 최초의 시스템으로, 확장 가능하며 몰입도 높은 AR 경험을 제공한다는 점에서 큰 의의를 갖는다. 실제 상용 모바일 기기에서 구현 및 평가된 ARIA는 다양한 AR 시나리오에서 정확도와 저지연 처리 성능을 유의미하게 향상시켰다.
이번 연구를 주도한 정찬영 연구원은 “ARIA는 고성능 VFM의 잠재력을 모바일 기기에서 온전히 실현할 수 있도록 한 중요한 진전”이라며 “향후 더욱 몰입감 있는 모바일 AR 기술의 발전이 기대된다”고 밝혔다.