
visionOS 26의 새로운 기능
최신 주요 기술과 기능을 알아보세요.
Volumetric API
SwiftUI에 새로 추가된 볼류메트릭 기능으로 앱의 몰입감이 향상됩니다. 기존 레이아웃에 심도 정렬을 추가하고, 레이아웃을 인식하여 회전할 수 있는 새로운 도구를 추가하며, 많은 SwiftUI 수정자를 3D에서 지원하게 되어 2D UI와 마찬가지로 익숙하게 더욱 풍부한 3D 레이아웃을 제작할 수 있습니다. UI 프레젠테이션을 사용하면 볼륨 내부와 상단에 알림, 시트, 메뉴, 팝오버와 같은 일시적인 콘텐츠를 표시할 수 있습니다. 동적 경계 제한을 구성하면 앱 경계 밖에서 렌더링되어 앱과 실제 세계가 더욱 자연스럽게 혼합됩니다.
이제 사람의 손 움직임에 따라 물체를 더욱 직관적으로 회전할 수 있고 SwiftUI, RealityKit 또는 Quick Look API를 사용하여 앱 내의 객체에 이 동작을 적용할 수 있습니다.
새로운 SwiftUI, RealityKit, ARKit APl 제품군에서는 프레임워크 간의 통합이 심화됩니다. Unified Coordinate Conversion API를 사용하면 장면 간에 그리고 뷰와 ARKit 보조 앵커 간에도 뷰와 엔티티를 간편하게 이동할 수 있습니다. RealityKit의 엔티티와 그 애니메이션을 보고 SwiftUI 뷰에서 직접 사용할 수 있습니다. SwiftUI에서 제스처 핸들러를 작성하고 해당 제스처를 RealityKit 엔티티에 직접 연결할 수 있습니다. ViewAttachmentComponent를 통해 UI를 RealityKit 코드 내에서 인라인으로 선언할 수 있습니다. 또한 Model3D는
이제 모델에서 정의된 구성 간에 전환하는 등의 더 많은 기능을 수행할 수 있습니다.
RealityKit이 개선되어 앱과 현실 세계가 더욱 자연스럽게 어우러집니다. Environment Occlusion을 통해 고정된 실제 물체로 가상 객체를 가립니다. 또한 새로운 MeshInstancesComponent를 사용하면 각 애셋의 고유한 특성을 지닌 여러 변형을 효율적으로 렌더링할 수 있습니다.
근거리 경험 공유하기
visionOS의 공유 경험을 같은 공간에 있는 사람들과 Vision Pro 앱 및 객체를 공유하는 기능을 통해 더욱 다양하게 활용할 수 있습니다.
기존 SharePlay 앱은 추가 코드 없이 자동으로 작동합니다. ARKit을 통해 공유 세계 앵커에 대한 지원이 추가되어 공유 콘텐츠를 공간에 정확하게 고정할 수 있게 되었습니다. SharePlay 세션 동안 앱과 콘텐츠를 주변 환경에 딱 맞게 이동하고, 크기를 조정하며, 작동할 수 있습니다. 추가로 Quick Look을 사용하면 실제 물체와 마찬가지로 가상 객체를 조작하고, 크기를 조정하며, 서로에게 전달할 수 있습니다.
visionOS 26의 Persona는 새롭게 탈바꿈하여 머리카락, 속눈썹, 피부색 등의 디테일이 향상되고 더욱 자연스럽고 사실적으로 표현이 가능하게 되었습니다.
위젯 및 영구 앱
영속성
공간 컴퓨팅의 매력 중 하나는 디지털 콘텐츠를 실제 세계와 완벽하게 융합하는 능력입니다. visionOS 26을 사용하면 앱과 Quick Look 콘텐츠를 물리적 표면에 맞춰 ‘고정’할 수 있어, 기존 공간을 새롭게 활용할 수 있습니다.
이 고정 콘텐츠는 계속 남아서 Apple Vision Pro를 다시 시작한 후에도 동일한 위치에 다시 나타납니다. 새로운 Persistence API를 사용하면 복원하거나 재사용할 콘텐츠를 지정할 수 있습니다.

위젯
위젯은 이제 공간에서 적용되어 벽이나 테이블에 딱 맞게 작동하고, 주변 환경에 녹아들며, 배치한 위치에 그대로 유지됩니다. WidgetKit과 SwiftUI를 사용해 iOS 및 iPadOS와 호환되는 앱용으로 작성된 위젯은 visionOS에서 멋지게 표시됩니다. 위젯 뷰는 심도와 차원을 활용하여 새로운 시각적 처리를 자동으로 적용하며, 별도의 변경이 필요 없습니다. visionOS 앱용 위젯은 사용자의 근접성에 따라 대체 보기를 표시하거나 유리 또는 종이 질감을 적용할 수 있습니다. 즉, 앱 콘텐츠에 맞게 정의할 수 있습니다.
게임 및 공간 액세서리
몰입감이 넘치는 앱과 게임은 빠른 손 움직임이 필요한데, visionOS는 이제 추가 코드 없이 최대 90Hz로 손 추적을 지원합니다.
새로 메모리 지원 한도가 늘어나서 하이엔드 iPad 게임을 Vision Pro에서 구현할 수 있습니다. Compositor Services는 Metal 몰입형 앱에 대해 개인 정보가 보호되는 호버 효과 지원을 제공합니다. 또한 동적 렌더링 품질은 앱의 렌더링 성능을 최적화하는 세밀한 제어를 제공하여 세부적인 장면이 돋보이게 해줍니다.
macOS 공간 렌더링을 사용하면 Mac의 기능을 활용하여 몰입형 콘텐츠를 Vision Pro에서 직접 렌더링하고 스트리밍할 수 있습니다. 네이티브 프레임워크로 개발할 때 ‘점진적 몰입’ 스타일을 적용하면 새로운 ‘가로’ 및 ‘세로’ 처리 기능을 통해 기존 iOS 앱과 게임의 입체감이 더욱 향상돼 움직임이 많은 게임을 구현하기에 이상적입니다. 또한 TabletopKit에서는 CustomEquipmentState 및 CustomActions라는 두 개의 새로운 API를 도입하여 유연성과 제어 기능이 강화되었습니다.
visionOS는 이제 6자유도 입력이 가능한 공간 액세서리를 지원합니다. Sony Playstation VR2 Sense 컨트롤러는 몰입감 넘치는 게임 플레이를 위해 풀 모션 추적 성능을 활용하는 공간 게임 컨트롤러입니다. Logitech Muse를 사용하면 크리에이터와 디자이너가 앱에서 매우 정밀하게 그림을 그리거나 주석을 달 수 있습니다. visionOS에는 게임 컨트롤러 프레임워크 및 ARKit 곳곳에 API가 포함되어 있어 개발자는 이를 통해 새로운 액세서리에 대한 지원을 추가할 수 있습니다.
Apple Intelligence
visionOS 26은 한국어, 중국어(간체), 프랑스어, 독일어, 이탈리아어, 일본어, 스페인어 등 더 많은 언어로 Apple Intelligence 지원을 확장합니다.
새로운 파운데이션 모델 프레임워크를 사용하면 앱이 여러 Apple Intelligence 기능의 핵심 역할을 하는 온디바이스 방식의 대규모 언어 모델에 직접 액세스할 수 있습니다. 가이드 기반 생성을 통해 구조화된 출력을 생성하고 툴 호출을 통해 모델이 코드로 정의한 동작을 자율적으로 수행하도록 합니다.
공간 웹
visionOS 26에서 Safari를 사용하면 더 다양하게 공간 콘텐츠를 보고 상호작용할 수 있습니다. 내비게이션 툴에서 공간 브라우징을 선택하면 리더 모드가 지원되는 웹사이트의 기사가 변환되어 방해 요소가 제거되고 공간 장면이 스크롤하는 대로 생생하게 인라인으로 구현됩니다.
HTML <model> 요소를 사용하여 3D 모델을 웹 페이지에 쉽게 삽입하여 방문자가 직접 보고 상호작용할 수 있도록 요소를 추가하거나 심지어 물건을 꺼내서 자신의 공간에서 실물 크기로 볼 수 있도록 할 수 있습니다. 모델은 페이지의 일부가 되어 CSS로 스타일을 지정하고 JavaScript로 구성할 수 있습니다.
HTML <video> 요소를 사용해 Apple Immersive Video를 비롯한 공간 및 몰입형 비디오를 웹 페이지에 표시할 수 있습니다.
또는 새로운 개발자용 미리 보기인 웹 환경을 사용하여 HTML 마크업을 통해 방문자 맞춤형 몰입형 환경을 제공해 보세요.
공간 미디어 콘텐츠
RealityKit의 새로운 ImagePresentationComponent는 2D 또는 공간 비디오 콘텐츠를 사람이 기대어 둘러볼 수 있는 3D 공간 장면으로 변환해 보다 실감 나는 사진을 경험할 수 있는 새롭고 혁신적인 방법을 제공합니다.
새로운 Apple Projected Media Profile(APMP)을 통해 visionOS는 이제 Canon, GoPro, Insta360 등 타사의 인기 있는 카메라로 촬영한 180도, 360도, Wide FoV 미디어를 기본적으로 지원합니다. APMP 콘텐츠는 앱이나 웹사이트에 삽입하여 재생할 수도 있습니다.
크리에이터는 새로운 BlackMagic URSA Cine Immersive 카메라와 DaVinci Resolve를 사용해 Apple Immersive Video 콘텐츠를 제작하고 해당 앱에서 또는 Safari로 웹에서 재생할 수 있습니다. 또한 새로운 Immersive Media Support(IMS) 프레임워크를 사용해 자체 제작 파이프라인에서 Apple Immersive Video 콘텐츠를 제작, 처리, 공유할 수 있습니다.
Vision Pro에서 콘텐츠를 녹화할 때 이제 Reality Composer Pro를 사용하여 세션당 3배나 많은 콘텐츠를 캡처할 수 있습니다. visionOS 시뮬레이터는 이제 4K 해상도를 지원하며 기기가 없어도 녹화할 수 있습니다.
Enterprise API
visionOS용 Enterprise API는 향상된 센서 액세스와 폭넓은 제어 기능을 제공하므로 더욱 강력한 엔터프라이즈 솔루션 및 공간 경험을 만들 수 있습니다. visionOS 26에는 새로운 API가 추가되어 엔터프라이즈 앱이 다음과 같은 기능을 갖출 수 있습니다.
- 메인 카메라의 공유 공간에 대한 액세스를 확장합니다.
- 개별 메인 카메라에 액세스하거나 두 메인 카메라 피드에 동시에 액세스할 수 있습니다.
- 선택한 관심 영역의 향상되고 안정적인 비디오 피드를 수신합니다.
- 스크린샷, 화면 녹화, AirPlay, SharePlay를 비활성화하여 민감한 콘텐츠를 보호합니다.
- 앱 윈도우가 자동으로 사용자 위치를 따라가도록 활성화합니다.
- 기업의 자체 인프라를 활용해 로컬로 공유 경험을 만듭니다.
리소스
나만의 앱과 게임을 Xcode 26 베타로 빌드하여 visionOS의 최신 기능을 활용하세요. WWDC25에서 소개된 새로운 기술에 관한 업데이트된 문서를 읽고 샘플 코드를 사용해 보세요.