“애플이 향후 내놓을 증강현실(AR) 헤드셋에는 손동작을 추적하는 페이스ID기술이 사용되며 이는 기기가 동작을 해석하도록 해 줄 것이다···이 기기에는 아이폰보다 더 많은 3D센싱 모듈이 탑재된다···향후 10년 안에 헤드셋에 있어서는 디스플레이를 가진 기존 가전제품을 대체하는 것이 매우 중요해질 것이다.”
애플인사이더는 9일(현지시각) 애플 전문분석가인 궈밍치 TF인터내셔널 증권 분석가의 추가 AR 보고서를 인용, 이같은 애플 최초의 AR 헤드셋 전망을 전했다.
궈 분석가는 이에 앞서 애플 AR헤드셋은 300~400g 무게의 기기로서 AR과 가상현실(VR)을 모두 사용하는 혼합현실(MR)기기가 될 것이라고 주장했다.
그는 며칠 만에 또다시 내놓은 자신의 두 번째 애플 AR보고서에서 이 AR헤드셋에 들어갈 것으로 예상되는 센서에 대한 자세한 내용도 소개했다.
궈 분석가는 투자자 노트에서 “동작 제어와 물체 감지는 애플 AR/MR 헤드셋의 중요한 인간-기계 사용자 인터페이스(UI) 디자인이다. 애플 AR/MR 헤드셋은 아이폰보다 3D 센싱 모듈을 더 많이 탑재했다”고 썼다.
그는 이어 “우리는 애플의 AR/MR 헤드셋이 4세트의 3D 센싱 기능(아이폰/하이엔드 스마트폰의 경우엔 1~2세트)을 갖출 것으로 예상한다”고 말했다.
궈 분석가는 “AR/MR 헤드셋의 구조화된 빛은 사용자 눈앞에 있는 사용자나 타인의 손과 사물의 변화는 물론 손의 동적 세부 사항 변화까지 감지할 수 있을 것으로 예측한다”고 썼다.
그는 이러한 “동적 세부 사항 변화는 페이스ID가 표현의 변화를 감지할 수 있는 방식과 유사하다”고 말하면서도 “손 움직임의 세부 사항들을 포착하는 것은 보다 직관적이고 생생한 인간-기계 UI를 제공할 수 있다”고 주장했다.
하지만 페이스ID와 이 헤드셋에 들어가는 손추적 기능 사이에는 차이점이 존재한다.
그 차이점에 대해 궈 분석가는 “둘 다 구조화된 빛을 채택하지만, (AR)헤드셋 장치에 의해 감지되는 손(사용자 또는 다른 사람의 것)과 물체 사이의 거리는 아이폰의 페이스 ID에 의해 보이는 거리보다 길어야 한다”고 말한다.
그는 “구조화된 빛을 가진 애플의 AR/MR 헤드셋의 감지 거리가 아이폰 페이스ID의 감지 거리보다 100~200% 더 멀 것으로 예측한다”고 말했다. 이어 “동작 감지를 위한 시야(FOV)를 늘리기 위해 애플 AR/MR 헤드셋에는 손 움직임 궤적을 감지하는 지연 시간이 짧은 3개의 광선 비행 시간 기반 거리 측정(ToF)센서 세트가 탑재될 것으로 예측한다”고 적고 있다.
궈 분석가는 이러한 구성요소와 요구사항이 고객이 투자를 선택할 수 있는 기업에 미치는 영향에 초점을 맞추고 있다. 그래서 그는 윈 세미(WIN semi)와 루멘텀(Lumentum)사가 애플 AR 헤드셋용 수직공동 표면 광방출 레이저(VCSEL Vertical Cavity Surface-Emitting Laser) 센서의 주요 공급자가 될 것으로 믿어진다고 보고했다.
그러나 그는 애플이 궁극적으로 아이폰을 대체할 AR 헤드셋을 의도하고 있다는 기존 보도도 뒷받침하고 있다.
궈 분석가는 “헤드셋 장치를 위한 혁신적인 인간-기계 UI는 많은 기술의 통합을 필요로 한다”면서 “향후 10년 안에 헤드셋에 있어서는 디스플레이를 사용하는 기존 가전제품을 대체하는 것이 매우 중요해질 것이다”라고 내다 봤다.
소셜댓글