Apple Vision Proとは|主な機能、開発環境、価格や発売日など

本記事は、ARスタートアップのOnePlanetにXRエンジニアとして所属し、様々なAR開発を手がける徳山より、2024年2月に米国で先行発売された Apple Vision Pro についての概要をまとめた内容となっています。

日本ではまだ発売前にも関わらず、すでにARに特化したスタートアップである株式会社OnePlanetは、渋谷のパルコで本デバイスを活用した日本初となるイベントを手がけており、他では体験できない感動レベルの空間体験が大きな話題を集めました。

Apple Vision Proの価格やできることを知りたい方向けに、デバイスの全体像やおもな特徴を整理して記載していきます。

「Apple Vision Pro」とは

Apple Vision Proは、Appleが開発したApple初の空間コンピューターです。現実の世界とデジタルの世界をシームレスに融合し、拡張現実と没入体験を提供します。

空間全体が境界のないディスプレイになります。空間に配置されたWebブラウザや他のアプリを使用することができます。また、写真やビデオを撮影し、大切な想い出を何度も体験できます。家族、友人、仕事仲間と一緒に同じ空間を共有してつながることもできます。

OnePlanetへ相談する お役立ち資料請求

操作方法(コントロール)

Apple Vision Proはマウスやコントローラーは存在せず、目、手、声を使って操作します。アプリのアイコンに視線を合わせると、視線が合ったアイコンが浮かび上がり、選択している状態になります。

選択や決定の操作は指同士をタップし、指を上下することでスクロール。そして入力フィールドを見つめたまま話すと、音声入力が始まるようになっています。Siriを使ってアプリの開閉やメディアの再生ができます。

Apple Vision Proならではの新しい体験を実現する主要な機能

Apple Vision Proはスマートフォンのような平面的なディスプレイとは全く異なる新しい体験を提供します。それらを実現しているApple Vision Proならではの主な機能を以下に紹介させていただきます。

EyeSight

EyeSightは周囲のつながりと感情を表すことを目的に搭載された機能です。Apple Vision Proを装着して使用しているユーザーが、どのような体験をしているのか?を周囲の人に伝えることができます。

アプリを使用しているときは、Apple Vision Proを装着しているユーザーの目が映し出されます。VRのような没入型のアプリを体験しているときは、目は映らない状態になります。

Apple Vision Pro を装着しているユーザーの近くに人がいると…。視界にその人の姿が自動的に映し出され、Apple Vision Pro を装着しているユーザーの目も映し出されます。

OnePlanetへ相談する お役立ち資料請求

Persona(ペルソナ)

Apple Vision Pro には、自分を映すカメラがありません。リモートでのコミュニケーションをする上で、Persona(ペルソナ)という自分に似た姿を映し出す機能を提供します。

Apple Vision Pro の前面部にあるセンサーを使い、スキャンしてPersona(ペルソナ)用のデータを登録します。登録されたデータをもとに、Apple Vision Proが Persona(ペルソナ) の作成を行います。

作成された Persona(ペルソナ)を自分のアバターとしてFaceTimeで使用することができるようになります。Persona (ペルソナ)はZoomなどの一部のビデオ会議ツールにも組み込まれ、ビデオ会議ツールに関係なく、Persona(ペルソナ)を組み込んだオリジナルのアプリ開発もできます。

Applle Vision Pro の体験シーン

Apple Vision Pro に搭載している3Dカメラで空間ビデオや空間写真を撮影して何度も体験することができます。空間ビデオについて以下の記事をご覧ください。

Apple Vision Pro の3D立体映像を実現する空間ビデオについて

Apple Vision Pro の Digital Crownで調整して、現実の空間からバーチャルの空間に変貌させることができます。目の前の巨大スクリーンと空間オーディオに包まれながら、映画やテレビ番組、スポーツを観戦したり、ゲームを楽しんだりすることができます。空間オーディオと3Dビデオを組み合わせた立体動画を鑑賞することもできます。

特大スクリーンで100本以上のApple Arcadeゲームをプレイすることもできます。Apple Vision Pro と Macを接続すると、Mac の画面が空間ディスプレイとして表示されます。Apple Vision Pro に Magic Trackpad や Magic Keyboard と接続して作業することができます。

Apple Vision Proは、App StoreにリリースされたiPhoneやiPadのアプリを使用できる互換モードを搭載しています。これは、iPhoneやiPad向けに開発されたアプリが、そのままApple Vision Pro上でも動作する利点です。 互換モードで動作するアプリは、画面のデザインがiPad版で表示され、visionOSのShared Spaceのアプリとして動作します。

つまり、iPhoneやiPadにインストールしているマップアプリやカレンダーアプリなど、既にApp Storeに公開されているiPhoneアプリやiPadアプリが、互換モードで動作する要件を満たしていれば、自動的にApple Vision Pro対応のアプリとしてApp Storeに公開されます。このため、Apple Vision Proに対応したアプリは既に100万本以上存在します。

OnePlanetへ相談する お役立ち資料請求

ハードウェアのスペックについて

現在、公表している Apple Vision Pro のハードウェアについて紹介します。まず、2つのカメラを搭載されています。このカメラから高解像度の映像をディスプレイに届けます。

下部にカメラ、赤外線イルミネーター、サイドカメラを搭載しています。また、LiDAR スキャナー と 深度カメラが搭載されており、これらのカメラやセンサー類が、頭や手のトラッキングを可能にし、リアルタイム3Dマッピングなど高度な処理を実現に貢献しています。

高性能なアイトラッキングは赤外線カメラとLEDイルミネーターを利用することで、LEDが見えない光のパターンを目に投射し、反応が良い直感的な入力を可能にします。そしてApple Vision Proには、省電力で且つ、高速な処理を可能とするApple シリコンチップを2つ搭載しています。1つはM2、もう1つはR1という新しいチップになります。

R1はApple Vision Proに搭載している12個のカメラ、5つのセンサーと6つのマイクからの情報を処理します。R1はセンサーとディスプレイ間の遅延をほとんどなくし、映像酔いを起こさないように設計されたチップです。

Apple Vision Pro のディスプレイは、Appleシリコンのチップに基づいて開発された超高解像度ディスプレイシステムを備えており、micro-OLEDテクノロジーにより、切手サイズの2つのディスプレイに対し、合計2,300万ものピクセルが詰め込まれ、片目あたり、4Kテレビを超えるピクセル数を備えています。

Apple Vision Pro は、空間オーディオシステムを搭載しました。これにより周りの空間から音が出てるように感じられ、リアルな音響効果の体験を可能にしています。Apple Vision Pro は電源につなげれば1日中体験でき、外付けのバッテリーと接続することで、最大2時間使用することができます。

Apple Vision Pro の 開発ソフトウェアについて

Apple Vision Proでアプリや体験を提供するためには、いくつかの開発方法があります。以下に主なものをご紹介します。

Xcode

Apple Vision Pro の開発は、visionOS SDKを含むXcodeで始まります。既存のプロジェクトにvisionOSターゲットを追加するか、新しくApple Vision Pro の アプリを開発。Xcode PreviewsでApple Vision Pro の アプリを繰り返し開発することができます。全く新しいvisionOSシミュレータでアプリを操作し、様々な部屋のレイアウトや照明条件を行えます。テストとビジュアライゼーションを作成して、空間コンテンツの衝突、オクルージョンの動作検証も行うことができます。https://developer.apple.com/xcode/

Swift UI

SwiftUIは、iOS、iPadOS、macOSなどのプラットフォームに適応可能なユーザーインターフェイスを作成することができます。宣言的な構文やデザインツールによって、コードを素早く構築してテストすることができます。UIKitや他のテクノロジーを使ってApple Vision Pro アプリ開発を行うとは可能ですが、SwiftUIはApple Vision Pro のアプリ開発において最適化されたデファクトスタンダードなフレームワークになります。https://developer.apple.com/jp/xcode/swiftui/

RealityKit

Apple Vision Pro 開発で作成したアプリは、奥行きと無限のキャンバスを活用して、没入感のあるパワフルな瞬間を作り出すことができます。Apple Vision Pro で開発したアプリをよりリッチに表現する上で、3Dモデルの表示は欠かせません。3Dモデルを開発したApple Vision Pro のアプリに組み込む開発ツールとして、RealityKitが用意されています。RealityKitはApple VIsion Pro 用の3Dレンダリングエンジンで、シャープで応答性の高い、ボリュメトリックなインターフェースを構築するために提供しています。SwiftUIとも深く統合しています。https://developer.apple.com/jp/augmented-reality/realitykit/

企画から開発までAR関連サービスをワンストップで提供していますので、ご興味がございましたらお気軽に相談ください。

OnePlanetへ相談する お役立ち資料請求

ARKit

ARKitは、Appleが開発した拡張現実のフレームワークです。カメラやセンサーを使用して、現実世界にCGや映像を重ね合わせ、拡張現実(AR)の体験を実現します。ARKitの機能により、バーチャルコンテンツをテーブルの上に配置したり、手で触れたりすることができ、バーチャルコンテンツが現実世界と相互作用することが可能になります。

Shared Space

Apple Vision Proは、デフォルトでShared Spaceで起動します。Shared Spaceでは、ARKitによってシステムのコア機能が駆動しているため、ユーザーはARKitの恩恵を自動的に受けることができます。ただし、Shared Space内のアプリは、ARKitのデータを取得や利用できません。

A

Full Space

Apple Vision ProのFull Spaceでは、ARKitの機能を利用して、周囲の環境とバーチャルコンテンツを組み合わせることができます。Full Spaceで利用できるARKitの機能を紹介します。

Plane detection

ARKitを使用することで、平面を検出します。これには壁、床、天井、テーブル、シート、窓、ドアなどが含まれ、各場所に3Dオブジェクトを配置したり、簡単な衝突検出などに活用できます。

Scene reconstruction

ARKitは現実世界の形状をメッシュとして認識できます。このメッシュを使用することで、高度な衝突検出が実現します。平面、階段、ベッド、キャビネット、家電、テレビ、植物など、複雑な形状も検出し、メッシュが生成されます。

Image tracking

ARKitの画像トラッキングでは、事前に登録された画像を検出することも可能です。特定の画像が配置されている場所に3Dオブジェクトを配置できます。

World tracking

World trackingは、現実世界にバーチャルコンテンツを固定できます。ARKitは、Apple Vision Pro の動きを追跡し、バーチャルコンテンツを同じ場所に留まるようにします。

Hand tracking

手の骨格データを取得することができ、これを使用してカスタムジェスチャーを実装できます。

OnePlanetへ相談する お役立ち資料請求

Reality Composer Pro

Apple Vision Pro アプリの 3Dコンテンツのプレビューや編集を可能にするアプリケーション Reality Composer Pro。Xcodeで利用できるReality Composer Proは、3Dモデル、マテリアル、サウンドなどのアセットのインポートが可能です。Reality Composer Pro は、Xcodeのビルドプロセスと緊密に統合され、Apple Vision Pro のアセットをプレビューして最適化することができます。

Unity

いままで紹介していた開発ソフトウェアは、Apple社が、iOS、iPad OS、macOSのアプリ開発者向けに提供しているものになります。Androidや他のプラットフォームのアプリやゲーム開発でよく使用されているゲームエンジン、Uniry Editor。このUnity EditorもApple Vision Pro の 開発をサポートしています。(AR Foundationも利用できます。)

https://create.unity.com/spatial

先行で開発されたアプリの紹介

先行して、既に数人の開発者がVision Proを使ったアプリを開発しています。JigSpaceは、デザイナーがF1デザインのコンセプトの検討やアイデアなど、製品を全く新しい方法で簡単に伝えることができるアプリケーションを開発しました。

以下のdjayアプリもApple Vision Proに対応。インターフェースが空間コンピューター向けに一新。誰でも目と手だけで好きな音楽をミックスし、リアルタイムでエフェクトをかけることができます。

AppleのARグラスで様々なアプリが体験できる様子に実感が湧いて、非常にワクワクしますね。

OnePlanetへ相談する お役立ち資料請求

 

発売日と価格、日本の発売時期について

アメリカのAppleウェブサイトとアメリカのApple Storeで 2024年2月2日にリリースしました。

ストレージが異なる以下の3種類が発売されました。

256GB … 3499ドル(約56万円)、512GB … 3699ドル(約59万円)、1TB … 3899ドル(約62万円)

日本の発売時期について

日本での発売は2024年6月までに行われるとの噂が浮上しています。その理由として、現在アメリカで販売されているApple Vision Proは英語のみに対応しており、キーボード入力も英語以外の言語をサポートしていません。最近、Appleは12の言語に対応したキーボード入力を進めているとの噂があり、その中には「English (Japan)」と「Japanese」も含まれているようです。

また、Appleは日本でApple Vision Proのブリーフィング・エクスペリエンス・スペシャリストを募集中です。

ブリーフィング・エクスペリエンス・スペシャリストの仕事内容は、Apple Vision Proの製品機能を用いたデモやエグゼクティブ向け説明会の実施、カスタマイズされたデモのデザインなどがあります。 これまでのこのポジションの選定には約1ヶ月かかっており、Appleが日本に向けて4月下旬から5月上旬にかけてApple Vision Proを発売する準備を進めている可能性があります

その他の詳細

本メディア「ARマーケティングラボ」を運営する株式会社OnePlanetでは、ARグラスを活用したアプリケーション開発について豊富な実績を有しています。AppleのARグラスについても常に最新の技術情報を収集し、 R&Dを進めており、日本初となるApple Vision Pro を使ったアプリの開発からサポートまで実施しました。

こちらは第96回アカデミー賞4部門に輝いた、映画『哀れなるものたち』(配給:ウォルト・ディズニー・ジャパン株式会社)の公開を記念して渋谷PARCO 3F イベントスペースの特別展示の中で、体験イベントを開催しました。詳細についてはこちらでご確認ください。

企画から開発までAR関連サービスをワンストップで提供していますので、ご興味がございましたらお気軽に相談ください。

OnePlanetへ相談する お役立ち資料請求