Apple Vision Pro 전체 사양, 기능 및 세부 정보

블로그

홈페이지홈페이지 / 블로그 / Apple Vision Pro 전체 사양, 기능 및 세부 정보

Sep 16, 2023

Apple Vision Pro 전체 사양, 기능 및 세부 정보

오늘 Apple은 마침내 3,500달러짜리 "공간 컴퓨터" 출시인 Vision Pro를 공개했습니다.

오늘 Apple은 마침내 2024년에 출시되는 3,500달러짜리 "공간 컴퓨터"인 Vision Pro를 공개했습니다. 다음은 발표된 사양과 기능에 대한 요약입니다.

Vision Pro는 기술적으로 불투명하지만 고해상도 컬러 카메라를 사용하여 현실 세계를 보여주고 전면 디스플레이를 사용하여 다른 사람에게 눈을 보여줍니다.

AR/VR 제품 중 최고 해상도와 대부분의 센서를 탑재한 초고급 헤드셋입니다. 이전에 출시된 적이 없는 새로운 기능을 도입했으며, VisionOS는 시선 추적과 손 추적을 융합하여 직관적인 입력을 제공하는 동시에 2D, AR, VR 간의 경계를 다시 생각합니다.

Vision Pro는 얇은 디자인을 구현하기 위해 곡선형 "3차원 형태" 접합 유리 전면 플레이트를 지원하는 맞춤형 알루미늄 합금 프레임을 갖추고 있습니다.

Vision Pro를 상대적으로 가볍게 유지하는 이유는 배터리와 헤드셋이 분리되어 있기 때문입니다. Meta Quest Pro 및 Pico 4와 같은 일부 다른 헤드셋은 스트랩 뒤쪽에 배터리가 있지만 Apple의 디자인은 헤드밴드 왼쪽의 자기 커넥터에 연결된 외부 배터리를 사용하여 배터리를 머리에서 완전히 분리합니다.

Apple은 다음 테스트 조건에서 외부 배터리가 2시간 동안 지속되었다고 주장합니다.

또는 배터리를 USB-C 전원에 연결하여 Vision Pro를 영구적으로 사용할 수 있습니다. Apple은 아직 얼마나 많은 전력이 필요한지에 대해 자세히 설명하지 않았습니다.

Vision Pro에는 총 12개의 카메라, TrueDepth 센서, LiDAR 센서 및 6개의 마이크가 있습니다.

12개의 카메라 중 6개가 전면 유리 아래에 있습니다.

이들 중 두 개는 헤드셋의 실제 세계에 대한 통과 보기를 위한 고해상도 색상을 제공하여 "초당 10억 개 이상의 색상 픽셀"을 스트리밍합니다.

나머지 4개의 전면 카메라는 헤드셋 위치 추적에 사용되며 어안 렌즈가 있을 가능성이 높습니다.

TrueDepth 센서의 목적 중 하나는 손 추적입니다. Apple은 손 추적 품질을 "매우 정확하여 서투른 하드웨어 컨트롤러가 필요하지 않도록 손을 완전히 해방시킨다"고 설명합니다.

Vision Pro에는 추적 가능한 컨트롤러가 없지만 게임 패드를 사용하여 가상 화면에서 기존 iPad 게임을 플레이할 수 있습니다.

LiDAR 센서는 다른 전면 카메라와 함께 환경의 실시간 3D 메싱을 수행하는 데 사용됩니다.

앱은 이 메시를 활용할 수 있지만 실제 카메라 데이터에 액세스할 수는 없습니다. Apple이 제공한 사용 사례 중 하나는 실제 테이블에 그림자를 드리우는 가상 객체였지만 이는 가능한 것의 표면만 긁는 것입니다.

아래쪽을 향한 2개의 카메라가 얼굴을 추적하고, 그 옆에 있는 4개의 내부 IR 카메라가 렌즈 주변의 LED 조명 링을 통해 눈을 추적합니다.

Vision Pro의 시선 추적은 인증, 포비티드 렌더링, FaceTime 아바타 구동이라는 세 가지 목적으로 사용됩니다.

Apple은 다른 장치의 TouchID 및 FaceID 명명 체계에 따라 새로운 홍채 스캔 인증을 OpticID라고 부릅니다. OpticID는 Vision Pro를 잠금 해제하는 방법이며 Apple Pay 구매 및 비밀번호 자동 입력에도 작동합니다. TouchID 및 FaceID와 마찬가지로 OpticID를 지원하는 생체 인식 데이터는 Secure Enclave 프로세서에 의해 장치 내에서 처리됩니다.

포비티드 렌더링은 현재 눈이 보고 있는 디스플레이의 작은 영역만 전체 해상도로 렌더링하여 나머지 부분은 해상도가 낮기 때문에 성능을 향상시키는 기술입니다. 확보된 GPU 리소스는 성능 향상, 렌더링 해상도 증가 또는 그래픽 설정 증가를 위해 사용될 수 있습니다. 이는 우리의 눈이 중심부 중심에서만 고해상도로 볼 수 있다는 사실을 활용합니다.

마지막으로, 시선 추적 기능이 하향 카메라와 결합되어 얼굴 표정을 실시간으로 추적하여 Apple의 사실적인 아바타인 FaceTime Persona를 구동합니다. Meta는 4년 넘게 이에 대한 연구를 선보이고 있지만 Meta의 연구와 동일한 품질은 아니지만 Apple이 가장 먼저 출시할 것으로 보입니다.

이러한 모든 카메라, 센서 및 마이크의 입력을 통합하기 위해 Apple은 R1이라는 맞춤형 칩을 개발했습니다.