GSCT UVR LAB.
UVR Lab. was formed in Feb. 2001 at GIST to study and develop “Virtual Reality in Smart computing environments” that process multimodal input, perceive user’s intention and emotion, and respond to user’s request through Augmented Reality. Since 2012, UVR Lab moved to KAIST GSCT and restarted with a theme of “FUN in Ubiquitous VR.”
 
작성일 : 18-10-24
[기사][전망2018] 가상·증강현실 콘텐츠 제작 장벽 허물어져
 글쓴이 : UVR
조회 : 29  


 

[전망2018] 가상·증강현실 콘텐츠 제작 장벽 허물어져

2018 년 ICT 이슈 - VR·AR

 우운택 KAIST 문화기술대학원 교수


[테크M=우운택 KAIST 문화기술대학원 교수]

가상·증강현실은 매년 시장을 달굴 키워드로 대접받았지만 여전히 기대주에 머물고 있다. 뜰거 같은데 확실하게 뜨지 않은 상황이 이어지고 있다.

2018 년은 분위기가 달라질 수 있을까? 지난해보다는 긍정적인 상황이 펼쳐질 것으로 보인다.

 

먼저 스마트폰 기반 가상·증강현실 저작도구 보급으로 사용자들이 보다 쉽게 증강현실을 경험할 수 있게 될 것이다. 스마트폰 3차원 카메라를 활용한 응용 서비스도 많이 등장할 것이다.

가상·증강현실을 카메라로 찍고 위치기반으로 기록한 뒤 다른 이들과 공유하려는 수요도 늘어날 것으로 전망된다. 이런 변화를 통해 안경형 등 새로운 스마트기기 폼팩터에 대한 요구가 증가하고 사람의 능력을 확장하는 증강 휴먼기술에 대한 관심도 커질 것으로 보인다.

 

스마트폰 기반 저작 도구 확산

최근들어 스마트폰에 기반한 다양한 가상·증강현실 저작도구가 확산되고 있다. 사용자들이 보다 쉽게 증강현실 콘텐츠를 경험할 수 있는 발판이 마련되고 있는 것이다.

퀄컴은 2011년 증강현실 개발용 소프트웨어 도구인 ‘뷰포리아’ 를 내놓고 모바일 환경에서 가상·증강현실을 쉽게 저작하고 체험할 수 있는 길을 열었다. 2015년 PTC는 퀄컴으로부터 뷰포리아 사업부를 인수하고 관련 솔루션을 제공해왔다.

 

2013년 폭스바겐으로부터 분사한 메타이오는 쥬나이오 솔루션으로 모바일 증강현실 콘텐츠 저작의 장벽을 낮췄다.

애플은 2015년 쥬나이오를 인수, 아이폰에 최적화된 저작 도구로 제공하고 있다. 2017년 공개된 애플 AR키트, 구글 AR코어도 그동안 전문가들의 영역으로 간주되던 가상·증강현실 콘텐츠 저작의 문턱을 낮춘 도구들로 꼽힌다.

 

가상·증강현실 콘텐츠 저작의 장벽을 낮추기 위한 관련 업계의 시도는 계속되고 있다. 아마존웹서비스(AWS)가 최근 공개한 수메리안(Sumerian)은 ‘아마존 AI’를 탑재한 대화형 아바타나 애니매이션에 기반한 가상·증강현실 콘텐츠도 만들 수 있도록 지원한다.

드래그앤드롭 방식으로 3차원 가상·증강현실 콘텐츠를 현장에서 바로 저작할 수 있도록 해준다. 조만간 쇼핑, 교육, 의료, 게임, 여행 등 다양한 영역에서 가상·증강현실 콘텐츠 저작에 활용될 수 있을 것으로 기대된다.

 

현재 시점에서 스마트폰은 가상·증강현실 콘텐츠를 사용할 수 있는 가장 강력한 하드웨어 플랫폼이다. 최근 스마트폰에 탑재된 3차원 카메라를 활용하면 다양한 응용 서비스 개발이 가능해진다.

외신들에 따르면 애플은 아이폰X 차기작에서는 후면에도 3D 카메라 기능을 적용할 것이라고 한다. 얼굴에 초점을 맞춘 전면 카메라와 달리, 후면에는 투사된 적외선이 주변 물체에서 반사돼 돌아오는 시간을 측정해 3차원 정보를 계산하는 시간 지연(TOF, Time of Flight) 측정법을 적용할 것으로 추정된다.

 

이처럼 후면에 배치된 스마트폰 3차원 카메라로는 무엇을 할 수 있을까? 우선 실시간 3차원 모델링이 가능해진다. 빌딩 안팎을 모델링하면 3차원 지도를 기반으로 길안내서비스를 증강현실로 제공할 수 있다.

길을 잃었을 때 유용하게 활용할 수 있는 시나리오다. 집안을 3차원 모델링하면 가구를 사기 전이라도 실제 집에 놓았을 때 어울릴지 여부를 확인할 수 있고, 벽이나 가구가 있는 곳에 가상·증강현실 게임을 만들면 거실을 상호작용 가능한 혼합현실 세계로 바꿀 수 있다.

인체를 스캐닝하면 의복착용, 화장, 운동, 수술 등 다양한 시뮬레이션에 적용이 가능하다.

 

경험 찍고 공유하는 3차원 지도플랫폼 주목

스마트폰 기반 가상·증강현실이 주목받는 이유는 사용자 시선과 스마트폰 화면이 가진 ‘일체성’ 및 ‘이동성’이 콘텐츠 활용도를 매우 높여주기 때문이다. 이런 관점에서 보면 가상·증강현실에서 핵심은 3D 콘텐츠라기 보다 환경이나 사용자 맥락 정보를 활용한 위치나 장소 기반 정보를 제공하는 것이다.

 

초창기 스마트폰 기반 증강현실 응용은 주로 위치 기반 정보제공에 집중됐는데 GPS 오차, 스마트폰 성능 문제, 공공 DB 접근 제한 등으로 증강현실의 활용 가능성이나 가치를 설득력 있게 보여 주기에는 한계가 있었다.

신기한 것을 보여주는 정도였다. 하지만 최근 GPS와 나침반 정확도가 향상되고 다양한 3차원 센서를 내장한 스마트폰의 등장으로 가상·증강현실 분야도 전환점을 맞고 있다.

 

인터넷을 통해 다양한 DB에 실시간 접근이 가능해지고 이를 3차원 지도 기반으로 관리, 체험, 공유할 수 있다면 가상·증강현실의 새로운 시대가 열릴 것으로 기대된다. 3차원 카메라와 관련 센서 발전은 가상·증강현실 경험을 찍고 위치 기반으로 기록하고 공유하고자 하는 욕구와 수요가 늘어나는 계기가 되고 있다.

 

3차원 센서의 경우 실내용 3D 지도 구축을 계속화시키는 엔진으로 부상했다. 앞으로 경험하게 될 증강현실도 3차원 지도를 중심으로 현실과 가상 사이의 연결, 맥락 기반 정보 및 오감 증강, 실시간 양방향 상호 작용을 특징으로 할 것이다.

 

3차원 지도를 매개로 현실과 가상공간에서 정보나 콘텐츠 공유가 어떻게 가능할까? 답은 사물인터넷, 인공지능 등 관련 기술의 통합적 활용에 있다.

먼저 사물인터넷이나 각종 센서를 통해 수집하고 해석한 정보와 맥락(Context)을 3차원 지도를 매개로 관리하면 현실과 가상 공간에서 서로 공유가 가능해진다.

 

현실공간에 3차원 지도를 증강하면 현실에서도 가상 상황을 체험할 수 있게 된다. 현실공간에서 3차원 지도를 증강하기 위해서는 현실 좌표계와 3차원 지도 좌표계를 일치시키면 된다.

현실공간에서 실감성 높은 오감 콘텐츠를 증강현실로 구현하는 것도 가능하다. 오감증강이란 3차원 현실 세계에서 시각, 청각, 후각, 미각, 촉각 등 오감과 관련한 증강 콘텐츠로 현실감을 느낄 수 있도록 만드는 것을 말한다.

 

시각 가시화는 컴퓨터비전(Computer Vision) 기술을 기반으로 카메라와 센서를 통해 표적대상물 크기, 방향, 거리 등을 계산하고, 현실 세계의 조명 조건을 고려해 텍스처, 쉐이딩, 그림자 등을 렌더링함으로써 실제 현실세계와 경계 없이 자연스럽게 어울리도록 가상 콘텐츠를 재현한다.

청각과 촉각 가시화는 증강 콘텐츠에 사람의 청각과 촉각을 자극할 수 있는 가상청각과 촉각정보를 동시에 부여하면 가능하다. 가상후각과 미각에 해당하는 정보를 부여하면 사람의 오감을 자극하는 사실감 높은 증강현실을 재현할 수 있다.

1.png

가상·증강현실이 영화, 드라마, 게임과 구분되는 가장 큰 특징은 현실공간에서 증강된 가상 콘텐츠와 상호작용이 가능하고 동시에 원격에 있는 사람들과 협업도 가능하다는 점이다.

서로 연결된 현실과 가상, 서로 떨어져 있는 물리 공간 등 서로 다른 두 공간을 결합하고 상호 작용하는 콘텐츠를 제공하는데 있어 보다 나은 경험을 제공하려면 사용자가 필요한 요소를 쉽게 찾을 수 있도록 하는 ‘직관성’과 명확하게 의도한 결과를 쉽게 얻어 낼 수 있도록 하는 ‘편의성’을 갖춰야 한다.

 

사람들 각각의 사용 패턴을 파악할 뿐만 아니라 제어 동작, 음성, 터치 등을 지원해 증강 콘텐츠와 보다 자연스러운 실시간 양방향 상호작용을 가능하게 하는 ‘눈치 있는’ 사용자 인터페이스가 필요하다는 뜻이다.

사물인터넷, 빅데이터, 인공지능 등과 연동되는 가상·증강현실에 눈치 있는 인터페이스가 결합된다면 스마트폰은 가상과 현실의 벽을 허무는데 그치지 않고 사용자의 능력을 확장하는 새로운 개인화 미디어가 될 것이다.

 

증강휴먼, 안경형 가상·증강현실 플랫폼의 미래

시공간의 한계를 넘어설 수 있도록 하는 가상·증강현실이 만드는 변화에 어떻게 대비해야 할까? 가상·증강현실이 새로운 소셜미디어로 자리잡은 세상에서, 미래의 사람은 어떤 모습일까?

모든 기능을 컴퓨터에 의존하는 무기력한 중독자의 모습일까? 아니면, 가상·증강현실 기술을 활용해 정보, 지식, 경험 등을 사회와 공유하는 ‘아이언맨’ 같은 증강휴먼(Augmented Human)의 모습일까?

 

사용자 능력을 효과적으로 확장하는 증강휴먼을 실현하기 위해서는 먼저 사용자를 잘 알아서 ‘눈치 있게’ 즉시에 필요한 정보나 서비스를 제공할 수 있어야 한다. 눈치 있는 가상·증강현실을 어떻게 구현할 수 있을까?

눈치 있는 증강현실을 일상 생활에서 확산하기 위해서는 현재 모바일 단말기의 단점을 극복할 수 있는 안경형 (착용형) 디스플레이, 현실세계에 가상세계를 중첩하기 위한 3D 지도 기반 실시간 사용자 위치 추적, 정량적 자아, 환경 및 사용자 맥락 인지, 지능 에이전트 기술 등이 필요하다.

 

여기에 서비스 플랫폼, 네트워크, 인공지능, 사물인터넷, 빅데이터, 로봇, 자율주행차 등 관련 기술을 증강휴먼 플랫폼의 관점에서 연계해 활용하는 것도 필요하다.

나아가 가상·증강현실 산업생태계가 활성화되기 위해서는 콘텐츠-플랫폼-네트워크-디바이스(CPND; Content, platform, Network, Device) 전반에 걸친 통합 표준화, 서비스 비즈니스 모델 개발, 서비스 기반 구축 및 실증도 요구된다.

인지 부조화에 따른 안정성 검증이나, 과몰입, 가상과 현실 혼동으로 인한 사회적 문제를 예방할 수 있는 연구도 필요하다.

안경형 디스플레이가 새로운 스마트 폼팩터로 정착된다면 사용자의 능력을 육체적으로, 지적으로, 사회적으로 확장하는 기술로 한 걸음 더 나아가게 될 것이다.

<본 기사는 테크M 제57호(2018 년 1월) 기사입니다>


기사 원문보기