目次

まえがき

謝辞

著者紹介

第1章 拡張現実感への導入

  • 1.1 定義と範囲
  • 1.2 拡張現実感の歴史
  • 1.3 拡張現実感の実例
    • 1.3.1 工業・建築
    • 1.3.2 整備・訓練
    • 1.3.3 医療
    • 1.3.4 個人別情報表示
    • 1.3.5 ナビゲーション
    • 1.3.6 テレビ
    • 1.3.7 広告と商業
    • 1.3.8 ゲーム
  • 1.4 関連分野
    • 1.4.1 複合現実感連続体
    • 1.4.2 仮想現実感
    • 1.4.3 ユビキタスコンピューティング
  • 1.5 まとめ


第2章 ディスプレイ

  • 2.1 多感覚ディスプレイ
    • 2.2.1 音声ディスプレイ
    • 2.2.2 触覚型ディスプレイ
    • 2.2.3 嗅覚・味覚ディスプレイ
  • 2.2 視覚
  • 2.3 要求仕様と特徴
    • 2.3.1 現実拡張の手段
    • 2.3.2 多眼性と立体視法
    • 2.3.3 焦点
    • 2.3.4 隠蔽関係
    • 2.3.5 解像度と表示更新頻度
    • 2.3.6 視野角
    • 2.3.7 視点位置のずれ
    • 2.3.8 輝度とコントラスト
    • 2.3.9 歪みと収差
    • 2.3.10 遅延
    • 2.3.11 人間工学
    • 2.3.12 社会的受容性
  • 2.4 空間ディスプレイモデル
  • 2.5 視覚ディスプレイ
    • 2.5.1 眼鏡型ディスプレイ
    • 2.5.2 携帯型ディスプレイ
    • 2.5.3 据え置き型ディスプレイ
    • 2.5.4 投影型ディスプレイ
  • 2.6 まとめ

第3章 トラッキング

  • 3.1 トラッキング,較正,位置合わせ
  • 3.2 座標系
    • 3.2.1 モデル変換
    • 3.2.2 視点変換
    • 3.2.3 射影変換
    • 3.2.4 基準座標系
  • 3.3 トラッキング技術の特徴
    • 3.3.1 トラッキングに利用される物理現象
    • 3.3.2 測定原理
    • 3.3.3 三辺測量と三角測量
    • 3.3.4 センサの配置
    • 3.3.5 信号源
    • 3.3.6 自由度
    • 3.3.7 測定座標
    • 3.3.8 センサの空間的配置
    • 3.3.9 作業領域の範囲
    • 3.3.10 測定誤差
    • 3.3.11 時間的特性
  • 3.4 据え付け型トラッキングシステム
    • 3.4.1 機械式トラッキング
    • 3.4.2 電磁式トラッキング
    • 3.4.3 超音波式トラッキング
  • 3.5 移動センサ
    • 3.5.1 全地球測位システム(GPS)
    • 3.5.2 無線ネットワーク
    • 3.5.3 磁力計
    • 3.5.4 ジャイロスコープ
    • 3.5.5 線形加速度計
    • 3.5.6 走行距離計
  • 3.6 光学式トラッキング
    • 3.6.1 モデルベースとモデル無しトラッキング
    • 3.6.2 照明
    • 3.6.3 マーカと自然特徴
    • 3.6.4 対象の識別
  • 3.7 センサフュージョン
    • 3.7.1 相補的センサフュージョン
    • 3.7.2 競合的センサフュージョン
    • 3.7.3 協調的センサフュージョン
  • 3.8 まとめ

第4章 拡張現実感のためのコンピュータビジョン

  • 4.1 マーカトラッキング
    • 4.1.1 カメラモデル
    • 4.1.2 マーカ検出
    • 4.1.3 平面射影変換からの姿勢推定
    • 4.1.4 位置姿勢の改善
  • 4.2 多視点赤外線カメラでのトラッキング
    • 4.2.1 blob検出
    • 4.2.2 対応点の確立
    • 4.2.3 2台のカメラを用いた三角測量
    • 4.2.4 3台以上のカメラからの三角測量
    • 4.2.5 球状マーカからなるマッチング対象
    • 4.2.6 絶対定位(Absolute Orientation)
  • 4.3 検出型自然特徴トラッキング
    • 4.3.1 特徴点検出
    • 4.3.2 記述子の作成
    • 4.3.3 記述子の対応付け
    • 4.3.4 PnP位置姿勢推定
    • 4.3.5 位置姿勢のロバスト推定
  • 4.4 逐次的トラッキング
    • 4.4.1 能動的探索
    • 4.4.2 Kanade-Lucas-Tomasiトラッキング
    • 4.4.3 ゼロ正規化相互相関(ZNCC)
    • 4.4.4 階層的探索
    • 4.4.5 検出とトラッキングの組み合わせ
  • 4.5 自己位置と環境の同時推定( SLAM)
    • 4.5.1 基本行列のための5点アルゴリズム
    • 4.5.2 バンドル調整
    • 4.5.3 PTAM (Parallel Tracking and Mapping)
    • 4.5.4 復帰処理とループクローズ
    • 4.5.5 密な環境復元
  • 4.6 屋外トラッキング
    • 4.6.1 スケーラブルな対応付け
    • 4.6.2 センサ情報による探索空間の削減
    • 4.6.3 幾何的な事前情報
    • 4.6.4 SLAMの活用
  • 4.7 まとめ

第5章 較正と位置合わせ

  • 5.1 カメラの較正
    • 5.1.1 カメラ内部パラメータ
    • 5.1.2 レンズ歪み補正
  • 5.2 ディスプレイの較正
    • 5.2.1 単点能動的位置合わせ法
    • 5.2.2 ポインティングデバイスを用いたHMDの較正
    • 5.2.3 Hand-Eye較正
  • 5.3 位置合わせ
    • 5.3.1 幾何学的測定歪み
    • 5.3.2 誤差伝搬
    • 5.3.3 遅延
    • 5.3.4 フィルタリングと予測
  • 5.4 まとめ

第6章 視覚的調和

  • 6.1 整合法
  • 6.2 隠蔽
    • 6.2.1 隠蔽関係の改善
    • 6.2.2 隠蔽関係の確率的表現
    • 6.2.3 モデル不要な隠蔽関係表現
  • 6.3 光学的整合法
    • 6.3.1 画像からの照明再現
    • 6.3.2 光源探査
    • 6.3.3 事前処理での光線取得
    • 6.3.4 静止画像からの光学的整合性の実現
    • 6.3.5 鏡面反射からの光学的整合法
    • 6.3.6 拡散反射からの光学的整合法
    • 6.3.7 影を手がかりにした光学的整合法
    • 6.3.8 屋外での光学的整合法
    • 6.3.9 明示的な光源の再構成
  • 6.4 共通照明
    • 6.4.1 差分描画
    • 6.4.2 実時間での大域照明
    • 6.4.3 影
    • 6.4.4 拡散反射光を扱う大域照明
    • 6.4.5 鏡面反射光を扱う大域照明
  • 6.5 隠消現実感
    • 6.5.1 関心領域の決定
    • 6.5.2 隠蔽領域の観測とモデリング
    • 6.5.3 関心領域の除去
    • 6.5.4 プロジェクタによる隠消現実感
  • 6.6 カメラシミュレーション
    • 6.6.1 レンズ歪み
    • 6.6.2 ぼけ
    • 6.6.3 ノイズ
    • 6.6.4 周辺減光
    • 6.6.5 色収差
    • 6.6.6 ベイヤーマスクによるノイズ
    • 6.6.7 トーンマッピングによる不整合
  • 6.7 様式変換による拡張現実感
  • 6.8 まとめ

第7章 状況適応型可視化

  • 7.1 課題
    • 7.1.1 データ過多
    • 7.1.2 ユーザインタラクション
    • 7.1.3 位置合わせの誤差
    • 7.1.4 視覚的干渉
    • 7.1.5 時間的一貫性
  • 7.2 可視化物体の位置合わせ
    • 7.2.1 局所座標で位置合わせされる状況適応型可視化
    • 7.2.2 世界座標で位置合わせされる状況適応型可視化
    • 7.2.3 位置合わせの不確かさ
  • 7.3 注釈付け
    • 7.3.1 注釈付けの基礎
    • 7.3.2 最適化手法
    • 7.3.3 時間的一貫性
    • 7.3.4 画像情報に基づく配置
    • 7.3.5 明瞭性
  • 7.4 X線透視
    • 7.4.1 物体空間で処理する半透過表現
    • 7.4.2 画像空間で処理する半透過表現
    • 7.4.3 Gバッファによる実装
  • 7.5 空間操作
    • 7.5.1 立体分解図
    • 7.5.2 空間変形
  • 7.6 情報フィルタリング
    • 7.6.1 知識ベースフィルタ
    • 7.6.2 空間フィルタ
    • 7.6.3 知識ベースフィルタと空間フィルタの組み合わせ
  • 7.7 まとめ

第8章 インタラクション

  • 8.1 出力
    • 8.1.1 仮想物体の配置
    • 8.1.2 動きに対応したディスプレイ
    • 8.1.3 マジックレンズ
  • 8.2 入力
    • 8.2.1 剛体のトラッキングと操作
    • 8.2.2 身体トラッキング
    • 8.2.3 ジェスチャ
    • 8.2.4 タッチ
    • 8.2.5 物理法則に基づいたインタフェース
  • 8.3 有形可触インタフェース
    • 8.3.1 平面や曲面上での有形可触インタフェース
    • 8.3.2 汎用的な形状の実物体
    • 8.3.3 明確な形状を持つ実物体
    • 8.3.4 透明な有形可触インタフェース
  • 8.4 実物体の表面での仮想UI
  • 8.5 紙面の現実拡張
  • 8.6 多視点インタフェース
  • 8.7 ハプティクスインタラクション
  • 8.8 マルチモーダルインタラクション
  • 8.9 会話エージェント
  • 8.10 まとめ

第9章 モデリングと注釈付け

  • 9 モデリングと注釈付け
  • 9.1 幾何形状の指定
    • 9.1.1 点
    • 9.1.2 平面
    • 9.1.3 体積
  • 9.2 外観の指定
  • 9.3 半自動再構成
  • 9.4 自由形状モデリング
  • 9.5 注釈
  • 9.6 まとめ

第10章 オーサリング

  • 10.1 拡張現実感のオーサリングの必要条件
    • 10.1.1 実世界インタフェース
    • 10.1.2 ハードウェアの抽象化
    • 10.1.3 オーサリングの作業手順
  • 10.2 オーサリングの技術要素
    • 10.2.1 演者
    • 10.2.2 物語
    • 10.2.3 舞台
    • 10.2.4 インタラクション
    • 10.2.5 設定
  • 10.3 自立型オーサリング手法
    • 10.3.1 GUIを用いたオーサリング
    • 10.3.2 実演によるオーサリング
  • 10.4 機能拡張による手法
  • 10.5 ウェブ技術
  • 10.6 まとめ

第11章 誘導支援

  • 11.1 誘導支援の基礎
  • 11.2 探索と発見
  • 11.3 経路の可視化
  • 11.4 視点誘導
    • 11.4.1 目標物や目標地点への誘導
    • 11.4.2 ある視点への誘導
  • 11.5 複数視点に関して
    • 11.5.1 複数視点の同時提供
    • 11.5.2 遷移型インタフェース
  • 11.6 まとめ

第12章 協調作業支援

  • 12.1 協調作業支援システムの形態
  • 12.2 同一地点での協調作業
    • 12.2.1 個々人に向けた表示と視点
    • 12.2.2 視線による気づき( awareness) の提供
    • 12.2.3 素早い身体動作を伴う協調作業
  • 12.3 遠隔協調作業
    • 12.3.1 映像共有による遠隔協調作業
    • 12.3.2 仮想物体による映像共有
    • 12.3.3 幾何学的整合性を保持した映像共有
    • 12.3.4 ポインティングとジェスチャ
    • 12.3.5 すばやく移動する人に対する遠隔協調作業
  • 12.4 まとめ

第13章 ソフトウェア構造

  • 13.1 ARアプリケーションの要件
    • 13.1.1 環境制御とシーンダイナミクス
    • 13.1.2 ディスプレイ空間
    • 13.1.3 実-仮想間の一貫性
    • 13.1.4 意味的知識
    • 13.1.5 物理空間
  • 13.2 ソフトウェア工学上の要件
    • 13.2.1 プラットフォーム抽象化
    • 13.2.2 ユーザインタフェースの抽象化
    • 13.2.3 再利用性と拡張性
    • 13.2.4 分散コンピューティング
    • 13.2.5 分離シミュレーション
  • 13.3 分散システム
    • 13.3.1 オブジェクト管理
    • 13.3.2 事例研究:SHEEP
  • 13.4 データフロー
    • 13.4.1 データフローグラフ
    • 13.4.2 マルチモーダルインタラクション
    • 13.4.3 スレッドとスケジューリング
    • 13.4.4 事例研究:装着型拡張現実感構成
  • 13.5 シーングラフ
    • 13.5.1 シーングラフの基本原理
    • 13.5.2 依存性グラフ
    • 13.5.3 シーングラフの統合
    • 13.5.4 分散共有シーングラフ
  • 13.6 開発者支援
    • 13.6.1 パラメータ構成
    • 13.6.2 宣言型スクリプト記述
    • 13.6.3 事例研究:拡張現実感ツアーガイド
    • 13.6.4 手続き型スクリプト記述
    • 13.6.5 混合言語プログラミング
    • 13.6.6 実行時再構成
    • 13.6.7 ARプラットフォームの選択
  • 13.7 まとめ

第14章 未来

  • 14.1 商用化を推進するもの
    • 14.1.1 専門職の利用者
    • 14.1.2 消費者
  • 14.2 AR開発者が望むこと
    • 14.2.1 低水準カメラAPI
    • 14.2.2 複数のカメラ
    • 14.2.3 広視野角カメラ
    • 14.2.4 センサ
    • 14.2.5 ユニファイドメモリ
    • 14.2.6 携帯端末上のGPUによる並列処理
    • 14.2.7 より良いディスプレイ
  • 14.3 ARを屋外へ
    • 14.3.1 様々な利用者への対応
    • 14.3.2 装置の性能限界
    • 14.3.3 位置姿勢推定の成功率
  • 14.4 IoTとの連携
  • 14.5 バーチャルリアリティと拡張現実の合流
  • 14.6 人間拡張
  • 14.7 物語表現用メディアとしてのAR
  • 14.8 社会交流のためのAR
  • 14.9 まとめ
  • 参考文献
  • 索引