拡張現実 (Augmented Reality、AR) の基礎: マーカー

拡張現実 (Augmented Reality、AR) の分野では、マーカーマーカーレスという 2 つの異なるトラッキング モードで区別されています。この記事では、マーカー トラッキングの仕組みを紹介します。

AR におけるマーカーは、一般的に位置合わせマーカーとして知られています。位置合わせマーカーとは、背景に設置可能で、位置やスケールのリファレンスとなる固定の点を提供するオブジェクトを指します。これらのマーカーは、3D モデルやビデオなど、現実世界と拡張現実のコンテンツ間におけるインターフェイスを提供します。これらのマーカーにより、AR コンテンツを生成するデバイスで、カメラの位置や向き (ポーズなど) を計算できます。リアルタイムに行うこの計算をトラッキングと呼びます。

画像にある定規が位置合わせマーカーの一例です。

マーカー トラッキングは、視覚情報のみを使用して実現できます。実際には、カメラとデスクトップ PC のみでマーカー トラッキングを実現でき、ジャイロスコープなど、追加のセンサーは必要ありません。マーカーレスでは、特定のソリューションでジャイロスコープからの情報を必要とする場合があります。たとえば、Arbitrack モードではジャイロスコープのデータを使用しますが、 SLAM ソリューションでは使用しません。

マーカーの仕組みとは?

カメラの向きの計算は、2 段階に分けて行われます。最初に、マーカーが検出され、承認されます。そして、この情報を使用して、カメラの向きが計算されます。

マーカーは、数段階に分けて検出されます。まず、簡単に検出できるようにカメラのフィードを事前処理します。このステップで重要なのは、カメラの画像をグレースケールに変換することです。これにより、グレースケール画像の処理速度を向上できます。さらに、”良いマーカー” (「AR (拡張現実) 向けに最適なマーカーを構成する要素」を読む) のグレースケール画像から取得された情報は、堅牢なマーカー トラッキングに十分に適しています。

カメラの向きを決定するには、4 つの固定点が必要です。まず始めに、カメラの画像データを取得し、すべての潜在的なマーカーから特徴点を計算します。次に、これらの潜在的なマーカーを事前にプログラミングされたデータと比較し、デバイスが求めるマーカーのいずれかと一致するか確認します。マーカーが承認されたら、特徴点の座標を使用して、カメラの位置を計算します。この計算の詳細は、ソースのリンク ([1] セクション: 3.2.3 p. 51) からご確認ください。

AR でマーカーを使用する例は多数あります。マーカーレス トラッキングに対する普及率の要因の多くは、技術の簡易性に関連しています。また、マーカーレスでは利用できないブリッジングの機会を提供します (下記をご覧ください)。今度は、マーカー アプリの 2 つの潜在的な使用例を紹介します。1 つ目のケースは、リファレンスの固定点を提供するだけに存在するマーカーです。簡単に検出可能な限り、目的を果たします。その一例は、iOS 向けの Karndean Designflooring アプリです。カタログの裏側に埋め込まれたマーカーを使用して、フロアリングのモデルを表示します。

2 つ目のケースは、AR コンテンツ向けの開始点を提供するマーカーです。たとえば、動画の開始の 1 つ目のフレームでマーカーを構成して、スマートフォンから閲覧すると、動画がシームレスに再生されます。そして、マーカー画像は、AR コンテンツが表示される際に期待されるユーザー エクスペリエンスに関するコンテキストを提供します。このアプリは、マーカー画像を使用して、動画を再生できます。

マーカーは、拡張現実 (AR) のアプリケーションにおいて、重要な役割を担います。効果的に使用することで、ユーザーの環境と AR コンテンツの間の重要な橋渡し役となります。

Kudan AR SDK 製品の詳細は、弊社の製品ページをご覧ください。

記事参照:
2017年 2月 20日 Kudan
© 2017 Kudan
Augmented Reality Fundamentals: Markers

タイトルとURLをコピーしました