直接触れることなく画面上のオブジェクトを操作できるユーザーインターフェース

スマートフォンやタブレットの普及によって、タッチインターフェースが一般化してきました。マウスやキーボードといった仲介物が不要で、指による「直接的な」操作が可能という意味で、とても革新的なユーザーインターフェース (UI) と言えます。これらタッチインターフェース (ATM のようにタップしかできないものではなく、マルチタッチによるジェスチャが可能なもの) は、「ナチュラルユーザーインターフェース (NUI : Natural User Interface)」の一種として括られることもあります。「コマンドラインインターフェース (CLI : Command Line Interface)」「グラフィカルユーザーインターフェース (GUI : Graphical User Interface)」に次ぐ次世代 UI、という概念です。

もちろん、タッチインターフェースは NUI の理想形/最終形かと言うとそんなことはなく、「よりナチュラルな UI」を探求している人も数多くいます。その成果のひとつとして最近具現化してきたものに、「Leap」という商品があります。2012年5月 (この記事が公開される半年近く前) に発表されて話題になったもので、ご存じの方も多いかもしれません。

「Leap」とは?

「Leap」とはどんな UI なのか、については、次のビデオをご覧いただくのが手っ取り早いでしょう。

ビデオを見るとわかるように、デバイス (ディスプレイ) の手前にある小さな箱が、ユーザーの手指の動きを検知してくれるというものです。検知の精度も非常に高く、異なる指の動きを同時に捉えたり、鉛筆の先っぽのような小さな点の動きも正確に捉えたりすることができます。開発元 (Leap Motion Inc) サイトの概要説明 によると、「Leap」のジェスチャ認識精度は、現在市場に出回っているデバイス (たとえば Kinnect などを指していると思われます) に比べ200倍も正確で、100分の1ミリメートルの単位で動きを捕捉できるそうです。

この記事を執筆している時点ではまだ発売されておらず、プレオーダー (事前予約) を受け付けている状態ですが、2013年に出荷予定で、価格は 70 米ドルに設定されています (個人でも十分に手が届くお値段ですね)。

「画面に接する」縛りからの解放 — アクセシビリティ向上にもなるかも

「Leap」の特長は、画面に直接触れなくても、画面上のオブジェクトを操作できることです。つまり、「画面に接する」という制限 (縛り) から解き放たれた NUI である、と言えます。一概に優劣を付けるような話ではありませんが、ある意味 (現行のスマートフォンやタブレットが採用している) タッチインターフェースを超えたもの、と言えるかもしれません。

タッチインターフェースの場合、オブジェクトをある位置まで動かしたり、ある大きさまで拡大したりする場合、その距離の分だけ、手指を動かす必要があります。スマートフォンや小さめのタブレットならまだしも、画面サイズが大きくなってくると、操作しにくいと感じることもあるのではないでしょうか。これに対し、「Leap」のような「画面に接する」縛りの無い UI では、「小さなジェスチャ」で「大きな動き」が可能になります。

この「小さなジェスチャ」で「大きな動き」というのは、アクセシビリティ (というよりは、ITC 機器ののユニバーサルデザインと言ったほうが適切かもしれません) の向上にもつながりそうです。障害や高齢によって身体の可動域が限られる人でも、よりスマートな形で、十分にオブジェクトを操作できる可能性を感じるからです。先の記事「音声認識ユーザーインターフェース「Siri」」の中で、「ユーザーインターフェースの進化は、アクセシビリティの裾野の広がりにつながる」と書きましたが、この「Leap」からも、同じことが言えそうな気がします。

「Leap」のような NUI の存在は、Web サイトをどう作るか (いかにして Web コンテンツのユーザビリティやアクセシビリティを高めるか) とは直接的には関係が無いかもしれませんが、ユーザーエージェントをも含めたユーザビリティ/アクセシビリティという観点で見ると興味深いかなと思い、今回、取り上げてみました。