GoogleがAI時代のARグラスやヘッドセット用OS『Android XR』を発表しました。
サムスン・Qualcommと協業し、2025年にはAndroid XR初採用製品として、サムスン製のヘッドセット『Moohan』(開発名)を発売します。
■ XRとは
Android XRのXRは「eXtended Reality」、いわゆるVR(仮想現実)やAR(拡張現実)、MR(複合現実)等々をひっくるめた概念。
要は Meta Quest や Apple Vision Pro のように、リアルとバーチャル、アトムとビット、現実の環境とデジタル情報が融合したアプリやサービスを可能にするヘッドセットやグラスのための新たなAndroid系OSが『Android XR』です。
■ マルチモーダルAI前提
すでにMetaとAppleが火花を散らす領域ではありますが、Android XRの特徴はAIをOSの要とすること、そしてQuestやVision Proのようなヘッドセットだけでなく、XREALのようなメガネ型デバイス、いわゆるARグラスにも将来的に対応すること。
AIに関しては、つい先日の Gemini 2.0 発表で公開された研究プロトタイプ「Project Astra」のように、マルチモーダルなAIの「空間推論」能力を活用して、カメラなどのセンサで周囲の環境やユーザーの見るものを理解し、自然な会話や身振りを主要なインターフェースとして利用するなど、AIを前提とした機能や操作を採用します。
従来の Siri や Googleアシスタントでも「声で操作」はできましたが、Android XRでは例えば街なかで「このバスは例の店まで行ける?」と訊けば、マルチモーダルなAIがカメラでバスを見て分析、特定してマップやウェブ情報にアクセスし、過去のやり取りから「例の店」が何を指すか把握して調べたうえで、ルートや所要時間を直接教えてくれるといった使い方が可能になります。
■ XREAL的ARグラスも将来対応
もうひとつのARグラス対応は、今回の発表では「将来的に」提供とされており、まずはQuest や Vision Proのように視界を覆うヘッドセットが先行します。
ヘッドセットもメガネも同じ Android XR が動くものの、その性質の違いから製品としても使い分け・棲み分けを明確にするのも興味深い点。
Googleいわく、ヘッドセットは特定の目的のために一時的に使う製品、グラスは日常的に身につける製品。
ヘッドセットの使い方の例は、空間にブラウザやアプリのウィンドウを並べたり、立体モデルやアバターを使って仕事をする、視界を覆う3Dのイマーシブな環境でYouTubeなど動画・写真を見る、VR / ARゲームで遊ぶなど。Meta Quest や Apple Vision Proと同様です。
グラス型デバイス、メガネについては、普段から身につけて音声でAIと会話する、簡易的な地図表示やポップアップで道案内や施設の情報を確認する、目の前の看板やメニューを翻訳する、外国語の音声を通訳するなど。
メガネ型デバイスはディスプレイ技術的の制約から、視界全体を覆って書き換えるような使い方が難しい一方で、周囲の環境が確認しやすい、軽く装着の負担が少ないといった利点があることから、普段の日常生活で常時着用して、AIの助けを借りるアイテムとしての位置づけです。
そういえば Googleは10年以上前の2012年、スカイダイバーに着用させる派手な演出で、カメラ付きメガネ端末 Google Glass を発表していました。
Google Glassは結局、コンシューマー向けとしても産業用途でも普及することなく途絶えてしまいましたが、今回の発表では「われわれにはGoogle Glassから続く蓄積がある」的な言い方をしています。
■ 第一弾はサムスン製ヘッドセット、開発名「Moohan」(無限)
パートナーとして名前が挙がったサムスンは、さっそくAndroid XR第一弾となるヘッドセット Project Moohan のイメージを公開しています。
製品版がどこまでこの画像に近いかは分かりませんが、形状としてはいわゆる一般的なMR / XRヘッドセット。Apple Vision Proのようなバイザー部分に各種センサを収め、Meta Quest Proのような大きめのヘッドバンドで装着するもののようです。
サムスン発表によれば、Moohanは最先端のディスプレイ技術とパススルー機能を備え、マルチモーダル入力(カメラの視覚と音声の聴覚etc)に対応、利用中に最大限の快適性を確保するため設計した軽量で人間工学的に最適化されたハードウェアとのこと。
■ 開発者プレビューは本日提供
Project Moohan は2025年発売予定とされているのみで、具体的な時期は明かしていません。
Android XR 向けアプリ開発については、本日より開発者キット Android XR SDKをプレビューとして公開します。
アプリ開発者は従来のARCore や Unity、WebXR、OpenXR 1.1といった技術を使い、既存アプリをXR向けに拡張したり、四角い画面に縛られないアプリやイマーシブな体験を開発できます。
また、Vision Proで多数の iPadアプリが利用できるように、現行のAndroidアプリも大多数がそのまま Android XR でも利用できる見込みです。
■ ソニーやXREALのデバイスも
現時点で Android XR 採用製品として予告済みなのはサムスンの Project Moohanのみ、しかも開発名の段階です。しかし Googleの発表では、Qualcommとのパートナーシップを通じて、ソニーやXREAL、Lynxなどのメーカーにも、多様な Android XRデバイスの開発が可能になったとされています。
AIを強調するOSだけに、Googleの称する「オープンエコシステム」の実質もスマホとは変わらざるを得ないとしても、Androidスマホやタブレットのように、各社から様々なAndroid XR製品が出てくることに期待できそうです。
■ AI x XRや「メガネ」はMetaやAppleも
なおXRあるいは「空間コンピューティング」とAIの活用、あるいはヘッドセットだけでないメガネ型デバイスへの拡張は、競合他社もすでに製品を展開していたり、開発を進めています。
たとえばGoogleが Gemini 2.0 の Project Astraデモ映像の最後で見せた「以前使ったナンバーロックの数字をGeminiに訊く」については、Metaが スマートグラス Ray-Ban Metaの最新アップデートに追加したリマインダ機能で、「Meta AIに「これ覚えておいて」と言えば、カメラで写真を撮って保存、後から画像内の数字や文章を教えてくれる」仕組みを製品として提供済み。
メガネ型のARデバイスについても、Metaが先日 Project Orion として試作品を公開したほか、秘密主義のAppleも、Vision Proとは別の軽量なメガネ型デバイスを以前から並行して研究開発していることは公然の秘密です。
サムスンも Googleも、ヘッドセット型のVRデバイスやに手を出して引っ込めた履歴がありますが、いまや ARや空間コンピューティング、そして音声や視覚を使ったマルチモーダルなインターフェースは、基盤となる技術の進歩を前提に、Meta や Apple が次世代の覇権を狙い激しく競争する分野。
参入プレーヤーが増え、競争が生まれ、ユーザーに選択の自由があるのはいつでも良いニュースです。