[방송기술저널 전숙희 기자] 한국전자통신연구원(ETRI)은 사용자의 경험이 더욱 생생하고 현실감이 넘치도록 가상현실(VR)과 증강현실(AR)을 접목하는 몰입형 확장현실(XR)의 기술 개발에 성공했다고 밝혔다.
이번에 개발한 기술은 스마트폰 기반 VR과 AR을 더한 몰입형 XR 기술로, 4년간 과학기술정보통신부의 과제 지원을 받은 연구의 결과물이다. 한국과학기술원(KAIST), ㈜제이투와이소프트, ㈜토즈와 공동연구를 수행해 SCI 논문 4.5편, 국내외 특허출원 17건, 3건의 기술이전 등의 성과를 거두었다.
해당 연구의 주요 기술은 △다중·이형센서 기반 상황적응형 인터랙션 프레임워크 △다인칭 사용자 3차원 정밀 동작 분석 기술 △복합공간상 사용자 위치 추정 기술 △개인 모바일 디바이스 인터랙션 증강 기술 등 4가지로 나눌 수 있다.
몰입형 XR의 핵심 기술은 다인칭 사용자 3차원 정밀 동작 분석과 복합공간상 사용자 위치 추정 기술이다.
먼저, 다인칭 사용자 3차원 정밀 동작 분석 기술은 모바일 환경에서 딥러닝 기술을 이용해 2차원 영상 데이터 기반으로 사용자의 3차원 관절 위치 정보를 추론하는 방식이다. 기존 방법은 고가의 그래픽처리장치(GPU) 장비를 탑재한 시스템 자원을 요구하지만, 이번 기술은 사용자의 스마트폰을 이용해 3차원 자세 정보를 효율적으로 추출할 수 있다.
아울러, 복합공간상 사용자 위치 추정 기술은 AR 콘텐츠를 현실 세계에 자연스럽게 융합하기 위한 기술이다. 스마트폰 카메라를 활용해 영상의 특징점을 추출하고, 이를 기반으로 3차원 포인트 클라우드를 생성 및 보정해 환경 맵을 구축한다. 생성된 맵을 활용해 사용자의 디바이스 위치를 정밀하게 추정할 수 있다.
이 기술은 사용자가 AR 환경에서 몰입감을 극대화할 수 있도록 설계했다. 이로써 가상·증강 환경에서 사용자의 환경과 행동을 정밀하게 해석해 다수의 사용자에게 별도의 제약 없이 동일한 품질의 인터랙션을 제공할 수 있다.
이 기술은 스마트폰을 활용해 몰입감을 극대화할 수 있도록 설계했고, 연구진은 AR에 맞춰 VR 공간을 만들어 로컬 및 원격에서 다수 사용자가 참여해 생생한 XR 체험이 가능하도록 시범 콘텐츠를 만들었다.
AR 속에서 범용 스마트폰을 활용한 헤드마운티드 디스플레이(HMD)를 착용한 두 명의 로컬 사용자는 각각 여우와 어린왕자 역할을 하고, VR 속에서 HMD를 착용한 또 다른 한 명의 원격 사용자는 허수아비 캐릭터 역할을 했다. 이로써 다수의 인원이 참여해 원격몰입 XR을 시연할 수 있었다.
연구진은 AR을 통해 실제 공간과 가상의 공간을 연동해 두 개의 공간을 공유하며 사용자의 제스처 인식까지 가상의 캐릭터에 반영하는 데 성공한 셈이다.
이번 기술은 노원기차마을 스키장 디오라마, 국립중앙도서관 ‘자산어보’등을 현장에서 체험할 수 있는 시범서비스에 적용했으며, 2023년 9월 독일 IFA에서 다중참여 원격몰입 XR 전시를 통해 뛰어난 기술력과 혁신적인 콘텐츠로 많은 관심을 모았다. 전문가들을 통해 본 기술이 XR의 새로운 발전과 지평을 열어갈 원동력이라는 평가도 받았다.
정성욱 ETRI 콘텐츠융합연구실 책임연구원은 “과기정통부에서 강조하고 있는 R&D 결과물의 조기 사업화를 위해 테마파크 및 국립박물관 등에서 실·가상 환경을 융합한 직관적 인터랙션을 제공하며, 이를 통해 몰입형 콘텐츠를 선보일 수 있도록 적극 지원할 것이며 향후 다양한 산업 분야로 확산할 수 있도록 과기정통부에서 지원 예정”이라고 전했다.