Apple Glassの開発はますます力強く続いているようです。この開発については、インターフェイス上を移動できるジェスチャ検出システムを提供するなど、いくつかの詳細がわかっていると考えられます。非常に興味深いイノベーションです。

手の動きとインターフェースが意図に応える

著名なアナリスト、Ming-Chi Kuo氏が公開したメモ( MacRumors経由)によると、Appleの将来の拡張現実メガネまたはヘルメットには、ジェスチャーやオブジェクト追跡の開発を可能にする高感度の3Dセンサーがいくつか搭載される予定です。これらのメガネのオペレーティング システムのインターフェイスを非常に自然な方法で移動できるテクノロジー。

「AR/MR ヘッドセットの構造化光は、ユーザーやユーザーの目の前の他の人々の手や物体の位置の変化だけでなく、手の詳細の動的な変化も検出できると予測しています (たとえば、 iPhone の Face ID/構造化光/アニ文字は、ユーザーの表情の変化を動的に検出でき、手の動きの詳細をキャプチャすることで、より直感的で鮮明なヒューマン マシン ユーザー インターフェイスを提供できます (例: ユーザーの手を検出するなど)。拳が開き、手に持った風船[画像]が飛び去るまで握り締める)」。

このレベルの詳細のおかげで、拡張現実、混合現実、または仮想現実のメガネでは、今日の iPhone や iPad で実現できるものにはるかに近いメガネ インターフェイスとの対話が可能になります。これは、上で述べたセンサーだけでなく、ジェスチャーを検出できるソフトウェアと人工知能エンジンのおかげで可能になります。

これに、 成功の鍵となるこれらのメガネのインターフェイスには、物体検出、視線追跡、虹彩認識、音声制御、肌検出、表情検出、空間検出が含まれることを付け加えれば、私たちが直面している非常に困難な問題に直面していることは明らかです。 、非常に興味深い製品です。これらのメガネやヘルメットが登場するまで残りは少なくなり、最新の噂では来年末になる予定です。

クオ氏によると、Apple Glassには物体検出のおかげで手で動かす仮想インターフェースが搭載されるという。・関連動画