目次
まえがき
謝辞
著者紹介
第1章 拡張現実感への導入
第1章 拡張現実感への導入
- 1.1 定義と範囲
- 1.2 拡張現実感の歴史
- 1.3 拡張現実感の実例
- 1.3.1 工業・建築
- 1.3.2 整備・訓練
- 1.3.3 医療
- 1.3.4 個人別情報表示
- 1.3.5 ナビゲーション
- 1.3.6 テレビ
- 1.3.7 広告と商業
- 1.3.8 ゲーム
- 1.4 関連分野
- 1.4.1 複合現実感連続体
- 1.4.2 仮想現実感
- 1.4.3 ユビキタスコンピューティング
- 1.5 まとめ
第2章 ディスプレイ
第2章 ディスプレイ
- 2.1 多感覚ディスプレイ
- 2.2.1 音声ディスプレイ
- 2.2.2 触覚型ディスプレイ
- 2.2.3 嗅覚・味覚ディスプレイ
- 2.2 視覚
- 2.3 要求仕様と特徴
- 2.3.1 現実拡張の手段
- 2.3.2 多眼性と立体視法
- 2.3.3 焦点
- 2.3.4 隠蔽関係
- 2.3.5 解像度と表示更新頻度
- 2.3.6 視野角
- 2.3.7 視点位置のずれ
- 2.3.8 輝度とコントラスト
- 2.3.9 歪みと収差
- 2.3.10 遅延
- 2.3.11 人間工学
- 2.3.12 社会的受容性
- 2.4 空間ディスプレイモデル
- 2.5 視覚ディスプレイ
- 2.5.1 眼鏡型ディスプレイ
- 2.5.2 携帯型ディスプレイ
- 2.5.3 据え置き型ディスプレイ
- 2.5.4 投影型ディスプレイ
- 2.6 まとめ
第3章 トラッキング
第3章 トラッキング
- 3.1 トラッキング,較正,位置合わせ
- 3.2 座標系
- 3.2.1 モデル変換
- 3.2.2 視点変換
- 3.2.3 射影変換
- 3.2.4 基準座標系
- 3.3 トラッキング技術の特徴
- 3.3.1 トラッキングに利用される物理現象
- 3.3.2 測定原理
- 3.3.3 三辺測量と三角測量
- 3.3.4 センサの配置
- 3.3.5 信号源
- 3.3.6 自由度
- 3.3.7 測定座標
- 3.3.8 センサの空間的配置
- 3.3.9 作業領域の範囲
- 3.3.10 測定誤差
- 3.3.11 時間的特性
- 3.4 据え付け型トラッキングシステム
- 3.4.1 機械式トラッキング
- 3.4.2 電磁式トラッキング
- 3.4.3 超音波式トラッキング
- 3.5 移動センサ
- 3.5.1 全地球測位システム(GPS)
- 3.5.2 無線ネットワーク
- 3.5.3 磁力計
- 3.5.4 ジャイロスコープ
- 3.5.5 線形加速度計
- 3.5.6 走行距離計
- 3.6 光学式トラッキング
- 3.6.1 モデルベースとモデル無しトラッキング
- 3.6.2 照明
- 3.6.3 マーカと自然特徴
- 3.6.4 対象の識別
- 3.7 センサフュージョン
- 3.7.1 相補的センサフュージョン
- 3.7.2 競合的センサフュージョン
- 3.7.3 協調的センサフュージョン
- 3.8 まとめ
第4章 拡張現実感のためのコンピュータビジョン
第4章 拡張現実感のためのコンピュータビジョン
- 4.1 マーカトラッキング
- 4.1.1 カメラモデル
- 4.1.2 マーカ検出
- 4.1.3 平面射影変換からの姿勢推定
- 4.1.4 位置姿勢の改善
- 4.2 多視点赤外線カメラでのトラッキング
- 4.2.1 blob検出
- 4.2.2 対応点の確立
- 4.2.3 2台のカメラを用いた三角測量
- 4.2.4 3台以上のカメラからの三角測量
- 4.2.5 球状マーカからなるマッチング対象
- 4.2.6 絶対定位(Absolute Orientation)
- 4.3 検出型自然特徴トラッキング
- 4.3.1 特徴点検出
- 4.3.2 記述子の作成
- 4.3.3 記述子の対応付け
- 4.3.4 PnP位置姿勢推定
- 4.3.5 位置姿勢のロバスト推定
- 4.4 逐次的トラッキング
- 4.4.1 能動的探索
- 4.4.2 Kanade-Lucas-Tomasiトラッキング
- 4.4.3 ゼロ正規化相互相関(ZNCC)
- 4.4.4 階層的探索
- 4.4.5 検出とトラッキングの組み合わせ
- 4.5 自己位置と環境の同時推定( SLAM)
- 4.5.1 基本行列のための5点アルゴリズム
- 4.5.2 バンドル調整
- 4.5.3 PTAM (Parallel Tracking and Mapping)
- 4.5.4 復帰処理とループクローズ
- 4.5.5 密な環境復元
- 4.6 屋外トラッキング
- 4.6.1 スケーラブルな対応付け
- 4.6.2 センサ情報による探索空間の削減
- 4.6.3 幾何的な事前情報
- 4.6.4 SLAMの活用
- 4.7 まとめ
第5章 較正と位置合わせ
第5章 較正と位置合わせ
- 5.1 カメラの較正
- 5.1.1 カメラ内部パラメータ
- 5.1.2 レンズ歪み補正
- 5.2 ディスプレイの較正
- 5.2.1 単点能動的位置合わせ法
- 5.2.2 ポインティングデバイスを用いたHMDの較正
- 5.2.3 Hand-Eye較正
- 5.3 位置合わせ
- 5.3.1 幾何学的測定歪み
- 5.3.2 誤差伝搬
- 5.3.3 遅延
- 5.3.4 フィルタリングと予測
- 5.4 まとめ
第6章 視覚的調和
第6章 視覚的調和
- 6.1 整合法
- 6.2 隠蔽
- 6.2.1 隠蔽関係の改善
- 6.2.2 隠蔽関係の確率的表現
- 6.2.3 モデル不要な隠蔽関係表現
- 6.3 光学的整合法
- 6.3.1 画像からの照明再現
- 6.3.2 光源探査
- 6.3.3 事前処理での光線取得
- 6.3.4 静止画像からの光学的整合性の実現
- 6.3.5 鏡面反射からの光学的整合法
- 6.3.6 拡散反射からの光学的整合法
- 6.3.7 影を手がかりにした光学的整合法
- 6.3.8 屋外での光学的整合法
- 6.3.9 明示的な光源の再構成
- 6.4 共通照明
- 6.4.1 差分描画
- 6.4.2 実時間での大域照明
- 6.4.3 影
- 6.4.4 拡散反射光を扱う大域照明
- 6.4.5 鏡面反射光を扱う大域照明
- 6.5 隠消現実感
- 6.5.1 関心領域の決定
- 6.5.2 隠蔽領域の観測とモデリング
- 6.5.3 関心領域の除去
- 6.5.4 プロジェクタによる隠消現実感
- 6.6 カメラシミュレーション
- 6.6.1 レンズ歪み
- 6.6.2 ぼけ
- 6.6.3 ノイズ
- 6.6.4 周辺減光
- 6.6.5 色収差
- 6.6.6 ベイヤーマスクによるノイズ
- 6.6.7 トーンマッピングによる不整合
- 6.7 様式変換による拡張現実感
- 6.8 まとめ
第7章 状況適応型可視化
第7章 状況適応型可視化
- 7.1 課題
- 7.1.1 データ過多
- 7.1.2 ユーザインタラクション
- 7.1.3 位置合わせの誤差
- 7.1.4 視覚的干渉
- 7.1.5 時間的一貫性
- 7.2 可視化物体の位置合わせ
- 7.2.1 局所座標で位置合わせされる状況適応型可視化
- 7.2.2 世界座標で位置合わせされる状況適応型可視化
- 7.2.3 位置合わせの不確かさ
- 7.3 注釈付け
- 7.3.1 注釈付けの基礎
- 7.3.2 最適化手法
- 7.3.3 時間的一貫性
- 7.3.4 画像情報に基づく配置
- 7.3.5 明瞭性
- 7.4 X線透視
- 7.4.1 物体空間で処理する半透過表現
- 7.4.2 画像空間で処理する半透過表現
- 7.4.3 Gバッファによる実装
- 7.5 空間操作
- 7.5.1 立体分解図
- 7.5.2 空間変形
- 7.6 情報フィルタリング
- 7.6.1 知識ベースフィルタ
- 7.6.2 空間フィルタ
- 7.6.3 知識ベースフィルタと空間フィルタの組み合わせ
- 7.7 まとめ
第8章 インタラクション
第8章 インタラクション
- 8.1 出力
- 8.1.1 仮想物体の配置
- 8.1.2 動きに対応したディスプレイ
- 8.1.3 マジックレンズ
- 8.2 入力
- 8.2.1 剛体のトラッキングと操作
- 8.2.2 身体トラッキング
- 8.2.3 ジェスチャ
- 8.2.4 タッチ
- 8.2.5 物理法則に基づいたインタフェース
- 8.3 有形可触インタフェース
- 8.3.1 平面や曲面上での有形可触インタフェース
- 8.3.2 汎用的な形状の実物体
- 8.3.3 明確な形状を持つ実物体
- 8.3.4 透明な有形可触インタフェース
- 8.4 実物体の表面での仮想UI
- 8.5 紙面の現実拡張
- 8.6 多視点インタフェース
- 8.7 ハプティクスインタラクション
- 8.8 マルチモーダルインタラクション
- 8.9 会話エージェント
- 8.10 まとめ
第9章 モデリングと注釈付け
第9章 モデリングと注釈付け
- 9 モデリングと注釈付け
- 9.1 幾何形状の指定
- 9.1.1 点
- 9.1.2 平面
- 9.1.3 体積
- 9.2 外観の指定
- 9.3 半自動再構成
- 9.4 自由形状モデリング
- 9.5 注釈
- 9.6 まとめ
第10章 オーサリング
第10章 オーサリング
- 10.1 拡張現実感のオーサリングの必要条件
- 10.1.1 実世界インタフェース
- 10.1.2 ハードウェアの抽象化
- 10.1.3 オーサリングの作業手順
- 10.2 オーサリングの技術要素
- 10.2.1 演者
- 10.2.2 物語
- 10.2.3 舞台
- 10.2.4 インタラクション
- 10.2.5 設定
- 10.3 自立型オーサリング手法
- 10.3.1 GUIを用いたオーサリング
- 10.3.2 実演によるオーサリング
- 10.4 機能拡張による手法
- 10.5 ウェブ技術
- 10.6 まとめ
第11章 誘導支援
第11章 誘導支援
- 11.1 誘導支援の基礎
- 11.2 探索と発見
- 11.3 経路の可視化
- 11.4 視点誘導
- 11.4.1 目標物や目標地点への誘導
- 11.4.2 ある視点への誘導
- 11.5 複数視点に関して
- 11.5.1 複数視点の同時提供
- 11.5.2 遷移型インタフェース
- 11.6 まとめ
第12章 協調作業支援
第12章 協調作業支援
- 12.1 協調作業支援システムの形態
- 12.2 同一地点での協調作業
- 12.2.1 個々人に向けた表示と視点
- 12.2.2 視線による気づき( awareness) の提供
- 12.2.3 素早い身体動作を伴う協調作業
- 12.3 遠隔協調作業
- 12.3.1 映像共有による遠隔協調作業
- 12.3.2 仮想物体による映像共有
- 12.3.3 幾何学的整合性を保持した映像共有
- 12.3.4 ポインティングとジェスチャ
- 12.3.5 すばやく移動する人に対する遠隔協調作業
- 12.4 まとめ
第13章 ソフトウェア構造
第13章 ソフトウェア構造
- 13.1 ARアプリケーションの要件
- 13.1.1 環境制御とシーンダイナミクス
- 13.1.2 ディスプレイ空間
- 13.1.3 実-仮想間の一貫性
- 13.1.4 意味的知識
- 13.1.5 物理空間
- 13.2 ソフトウェア工学上の要件
- 13.2.1 プラットフォーム抽象化
- 13.2.2 ユーザインタフェースの抽象化
- 13.2.3 再利用性と拡張性
- 13.2.4 分散コンピューティング
- 13.2.5 分離シミュレーション
- 13.3 分散システム
- 13.3.1 オブジェクト管理
- 13.3.2 事例研究:SHEEP
- 13.4 データフロー
- 13.4.1 データフローグラフ
- 13.4.2 マルチモーダルインタラクション
- 13.4.3 スレッドとスケジューリング
- 13.4.4 事例研究:装着型拡張現実感構成
- 13.5 シーングラフ
- 13.5.1 シーングラフの基本原理
- 13.5.2 依存性グラフ
- 13.5.3 シーングラフの統合
- 13.5.4 分散共有シーングラフ
- 13.6 開発者支援
- 13.6.1 パラメータ構成
- 13.6.2 宣言型スクリプト記述
- 13.6.3 事例研究:拡張現実感ツアーガイド
- 13.6.4 手続き型スクリプト記述
- 13.6.5 混合言語プログラミング
- 13.6.6 実行時再構成
- 13.6.7 ARプラットフォームの選択
- 13.7 まとめ
第14章 未来
第14章 未来
- 14.1 商用化を推進するもの
- 14.1.1 専門職の利用者
- 14.1.2 消費者
- 14.2 AR開発者が望むこと
- 14.2.1 低水準カメラAPI
- 14.2.2 複数のカメラ
- 14.2.3 広視野角カメラ
- 14.2.4 センサ
- 14.2.5 ユニファイドメモリ
- 14.2.6 携帯端末上のGPUによる並列処理
- 14.2.7 より良いディスプレイ
- 14.3 ARを屋外へ
- 14.3.1 様々な利用者への対応
- 14.3.2 装置の性能限界
- 14.3.3 位置姿勢推定の成功率
- 14.4 IoTとの連携
- 14.5 バーチャルリアリティと拡張現実の合流
- 14.6 人間拡張
- 14.7 物語表現用メディアとしてのAR
- 14.8 社会交流のためのAR
- 14.9 まとめ
- 参考文献
- 索引