Search this site
Embedded Files
Skip to main content
Skip to navigation
ARの教科書
ホーム
目次詳細
日本語AR教材
正誤表
ARの教科書
ホーム
目次詳細
日本語AR教材
正誤表
More
ホーム
目次詳細
日本語AR教材
正誤表
目次
まえがき
謝辞
著者紹介
第1章 拡張現実感への導入
1.1 定義と範囲
1.2 拡張現実感の歴史
1.3 拡張現実感の実例
1.3.1 工業・建築
1.3.2 整備・訓練
1.3.3 医療
1.3.4 個人別情報表示
1.3.5 ナビゲーション
1.3.6 テレビ
1.3.7 広告と商業
1.3.8 ゲーム
1.4 関連分野
1.4.1 複合現実感連続体
1.4.2 仮想現実感
1.4.3 ユビキタスコンピューティング
1.5 まとめ
第2章 ディスプレイ
2.1 多感覚ディスプレイ
2.2.1 音声ディスプレイ
2.2.2 触覚型ディスプレイ
2.2.3 嗅覚・味覚ディスプレイ
2.2 視覚
2.3 要求仕様と特徴
2.3.1 現実拡張の手段
2.3.2 多眼性と立体視法
2.3.3 焦点
2.3.4 隠蔽関係
2.3.5 解像度と表示更新頻度
2.3.6 視野角
2.3.7 視点位置のずれ
2.3.8 輝度とコントラスト
2.3.9 歪みと収差
2.3.10 遅延
2.3.11 人間工学
2.3.12 社会的受容性
2.4 空間ディスプレイモデル
2.5 視覚ディスプレイ
2.5.1 眼鏡型ディスプレイ
2.5.2 携帯型ディスプレイ
2.5.3 据え置き型ディスプレイ
2.5.4 投影型ディスプレイ
2.6 まとめ
第3章 トラッキング
3.1 トラッキング,較正,位置合わせ
3.2 座標系
3.2.1 モデル変換
3.2.2 視点変換
3.2.3 射影変換
3.2.4 基準座標系
3.3 トラッキング技術の特徴
3.3.1 トラッキングに利用される物理現象
3.3.2 測定原理
3.3.3 三辺測量と三角測量
3.3.4 センサの配置
3.3.5 信号源
3.3.6 自由度
3.3.7 測定座標
3.3.8 センサの空間的配置
3.3.9 作業領域の範囲
3.3.10 測定誤差
3.3.11 時間的特性
3.4 据え付け型トラッキングシステム
3.4.1 機械式トラッキング
3.4.2 電磁式トラッキング
3.4.3 超音波式トラッキング
3.5 移動センサ
3.5.1 全地球測位システム(GPS)
3.5.2 無線ネットワーク
3.5.3 磁力計
3.5.4 ジャイロスコープ
3.5.5 線形加速度計
3.5.6 走行距離計
3.6 光学式トラッキング
3.6.1 モデルベースとモデル無しトラッキング
3.6.2 照明
3.6.3 マーカと自然特徴
3.6.4 対象の識別
3.7 センサフュージョン
3.7.1 相補的センサフュージョン
3.7.2 競合的センサフュージョン
3.7.3 協調的センサフュージョン
3.8 まとめ
第4章 拡張現実感のためのコンピュータビジョン
4.1 マーカトラッキング
4.1.1 カメラモデル
4.1.2 マーカ検出
4.1.3 平面射影変換からの姿勢推定
4.1.4 位置姿勢の改善
4.2 多視点赤外線カメラでのトラッキング
4.2.1 blob検出
4.2.2 対応点の確立
4.2.3 2台のカメラを用いた三角測量
4.2.4 3台以上のカメラからの三角測量
4.2.5 球状マーカからなるマッチング対象
4.2.6 絶対定位(Absolute Orientation)
4.3 検出型自然特徴トラッキング
4.3.1 特徴点検出
4.3.2 記述子の作成
4.3.3 記述子の対応付け
4.3.4 PnP位置姿勢推定
4.3.5 位置姿勢のロバスト推定
4.4 逐次的トラッキング
4.4.1 能動的探索
4.4.2 Kanade-Lucas-Tomasiトラッキング
4.4.3 ゼロ正規化相互相関(ZNCC)
4.4.4 階層的探索
4.4.5 検出とトラッキングの組み合わせ
4.5 自己位置と環境の同時推定( SLAM)
4.5.1 基本行列のための5点アルゴリズム
4.5.2 バンドル調整
4.5.3 PTAM (Parallel Tracking and Mapping)
4.5.4 復帰処理とループクローズ
4.5.5 密な環境復元
4.6 屋外トラッキング
4.6.1 スケーラブルな対応付け
4.6.2 センサ情報による探索空間の削減
4.6.3 幾何的な事前情報
4.6.4 SLAMの活用
4.7 まとめ
第5章 較正と位置合わせ
5.1 カメラの較正
5.1.1 カメラ内部パラメータ
5.1.2 レンズ歪み補正
5.2 ディスプレイの較正
5.2.1 単点能動的位置合わせ法
5.2.2 ポインティングデバイスを用いたHMDの較正
5.2.3 Hand-Eye較正
5.3 位置合わせ
5.3.1 幾何学的測定歪み
5.3.2 誤差伝搬
5.3.3 遅延
5.3.4 フィルタリングと予測
5.4 まとめ
第6章 視覚的調和
6.1 整合法
6.2 隠蔽
6.2.1 隠蔽関係の改善
6.2.2 隠蔽関係の確率的表現
6.2.3 モデル不要な隠蔽関係表現
6.3 光学的整合法
6.3.1 画像からの照明再現
6.3.2 光源探査
6.3.3 事前処理での光線取得
6.3.4 静止画像からの光学的整合性の実現
6.3.5 鏡面反射からの光学的整合法
6.3.6 拡散反射からの光学的整合法
6.3.7 影を手がかりにした光学的整合法
6.3.8 屋外での光学的整合法
6.3.9 明示的な光源の再構成
6.4 共通照明
6.4.1 差分描画
6.4.2 実時間での大域照明
6.4.3 影
6.4.4 拡散反射光を扱う大域照明
6.4.5 鏡面反射光を扱う大域照明
6.5 隠消現実感
6.5.1 関心領域の決定
6.5.2 隠蔽領域の観測とモデリング
6.5.3 関心領域の除去
6.5.4 プロジェクタによる隠消現実感
6.6 カメラシミュレーション
6.6.1 レンズ歪み
6.6.2 ぼけ
6.6.3 ノイズ
6.6.4 周辺減光
6.6.5 色収差
6.6.6 ベイヤーマスクによるノイズ
6.6.7 トーンマッピングによる不整合
6.7 様式変換による拡張現実感
6.8 まとめ
第7章 状況適応型可視化
7.1 課題
7.1.1 データ過多
7.1.2 ユーザインタラクション
7.1.3 位置合わせの誤差
7.1.4 視覚的干渉
7.1.5 時間的一貫性
7.2 可視化物体の位置合わせ
7.2.1 局所座標で位置合わせされる状況適応型可視化
7.2.2 世界座標で位置合わせされる状況適応型可視化
7.2.3 位置合わせの不確かさ
7.3 注釈付け
7.3.1 注釈付けの基礎
7.3.2 最適化手法
7.3.3 時間的一貫性
7.3.4 画像情報に基づく配置
7.3.5 明瞭性
7.4 X線透視
7.4.1 物体空間で処理する半透過表現
7.4.2 画像空間で処理する半透過表現
7.4.3 Gバッファによる実装
7.5 空間操作
7.5.1 立体分解図
7.5.2 空間変形
7.6 情報フィルタリング
7.6.1 知識ベースフィルタ
7.6.2 空間フィルタ
7.6.3 知識ベースフィルタと空間フィルタの組み合わせ
7.7 まとめ
第8章 インタラクション
8.1 出力
8.1.1 仮想物体の配置
8.1.2 動きに対応したディスプレイ
8.1.3 マジックレンズ
8.2 入力
8.2.1 剛体のトラッキングと操作
8.2.2 身体トラッキング
8.2.3 ジェスチャ
8.2.4 タッチ
8.2.5 物理法則に基づいたインタフェース
8.3 有形可触インタフェース
8.3.1 平面や曲面上での有形可触インタフェース
8.3.2 汎用的な形状の実物体
8.3.3 明確な形状を持つ実物体
8.3.4 透明な有形可触インタフェース
8.4 実物体の表面での仮想UI
8.5 紙面の現実拡張
8.6 多視点インタフェース
8.7 ハプティクスインタラクション
8.8 マルチモーダルインタラクション
8.9 会話エージェント
8.10 まとめ
第9章 モデリングと注釈付け
9 モデリングと注釈付け
9.1 幾何形状の指定
9.1.1 点
9.1.2 平面
9.1.3 体積
9.2 外観の指定
9.3 半自動再構成
9.4 自由形状モデリング
9.5 注釈
9.6 まとめ
第10章 オーサリング
10.1 拡張現実感のオーサリングの必要条件
10.1.1 実世界インタフェース
10.1.2 ハードウェアの抽象化
10.1.3 オーサリングの作業手順
10.2 オーサリングの技術要素
10.2.1 演者
10.2.2 物語
10.2.3 舞台
10.2.4 インタラクション
10.2.5 設定
10.3 自立型オーサリング手法
10.3.1 GUIを用いたオーサリング
10.3.2 実演によるオーサリング
10.4 機能拡張による手法
10.5 ウェブ技術
10.6 まとめ
第11章 誘導支援
11.1 誘導支援の基礎
11.2 探索と発見
11.3 経路の可視化
11.4 視点誘導
11.4.1 目標物や目標地点への誘導
11.4.2 ある視点への誘導
11.5 複数視点に関して
11.5.1 複数視点の同時提供
11.5.2 遷移型インタフェース
11.6 まとめ
第12章 協調作業支援
12.1 協調作業支援システムの形態
12.2 同一地点での協調作業
12.2.1 個々人に向けた表示と視点
12.2.2 視線による気づき( awareness) の提供
12.2.3 素早い身体動作を伴う協調作業
12.3 遠隔協調作業
12.3.1 映像共有による遠隔協調作業
12.3.2 仮想物体による映像共有
12.3.3 幾何学的整合性を保持した映像共有
12.3.4 ポインティングとジェスチャ
12.3.5 すばやく移動する人に対する遠隔協調作業
12.4 まとめ
第13章 ソフトウェア構造
13.1 ARアプリケーションの要件
13.1.1 環境制御とシーンダイナミクス
13.1.2 ディスプレイ空間
13.1.3 実-仮想間の一貫性
13.1.4 意味的知識
13.1.5 物理空間
13.2 ソフトウェア工学上の要件
13.2.1 プラットフォーム抽象化
13.2.2 ユーザインタフェースの抽象化
13.2.3 再利用性と拡張性
13.2.4 分散コンピューティング
13.2.5 分離シミュレーション
13.3 分散システム
13.3.1 オブジェクト管理
13.3.2 事例研究:SHEEP
13.4 データフロー
13.4.1 データフローグラフ
13.4.2 マルチモーダルインタラクション
13.4.3 スレッドとスケジューリング
13.4.4 事例研究:装着型拡張現実感構成
13.5 シーングラフ
13.5.1 シーングラフの基本原理
13.5.2 依存性グラフ
13.5.3 シーングラフの統合
13.5.4 分散共有シーングラフ
13.6 開発者支援
13.6.1 パラメータ構成
13.6.2 宣言型スクリプト記述
13.6.3 事例研究:拡張現実感ツアーガイド
13.6.4 手続き型スクリプト記述
13.6.5 混合言語プログラミング
13.6.6 実行時再構成
13.6.7 ARプラットフォームの選択
13.7 まとめ
第14章 未来
14.1 商用化を推進するもの
14.1.1 専門職の利用者
14.1.2 消費者
14.2 AR開発者が望むこと
14.2.1 低水準カメラAPI
14.2.2 複数のカメラ
14.2.3 広視野角カメラ
14.2.4 センサ
14.2.5 ユニファイドメモリ
14.2.6 携帯端末上のGPUによる並列処理
14.2.7 より良いディスプレイ
14.3 ARを屋外へ
14.3.1 様々な利用者への対応
14.3.2 装置の性能限界
14.3.3 位置姿勢推定の成功率
14.4 IoTとの連携
14.5 バーチャルリアリティと拡張現実の合流
14.6 人間拡張
14.7 物語表現用メディアとしてのAR
14.8 社会交流のためのAR
14.9 まとめ
参考文献
索引
Google Sites
Report abuse
Google Sites
Report abuse