オープンキャンパス2025/6/15
ゲーム情報学 (Game programming / Game informatics)は、「ゲーム」を対象とした知的システムを構築する手法についての研究分野である。このときのゲームとは、主として、囲碁・将棋・チェス・トランプのような古典的アブストラクトゲーム(ボードゲーム)や、ゲームセンターや家庭用ゲーム機、スマートフォンで遊ぶカジュアルゲーム・リアルタイムゲームなどを指す。ゲーム理論とほぼ重なりつつも、ゲーム情報学では経済活動のような社会的競争としてのゲームについてはメインターゲットとしない点で異なっている。
AIや知的システムの評価を行うため、1940年ころからチェスなどのゲームを対象とした分析、研究、システム構築がなされてきた。その主たる成果は、ゲーム理論のうち、とくに展開型ゲームとその近似解法にある。当初は原理的な分析から、MIN-MAX定理やNASH均衡解などの概念が生まれた。計算機の能力が向上した1960年ころからは、αβ探索やdfpn法、各種の特殊ハッシュによる状態管理手法などにより、ゲームの状態遷移を展開したゲーム木を、利用可能なメモリと計算速度の中で、できるだけ深く生成・探査する手法が進んだ。探索用の専用ハード(回路チップ)が作られ2000年より前に、コンピュータチェスが人間のグランドマスターに勝利するようになった。2005年ころからはさらに増大した計算機の能力を活用する方法としてモンテカルロ法による近似探索が提案され人に遠く及ばないと思われていた囲碁プログラムが人間プレイヤに匹敵するようになった。同時期に近似探索が効きづらい将棋やチェスにおいては、大量の記譜から状態評価関数(実態は状態価値関数)を超大量パラメータによる線形モデルで機械学習し人間を超えるプログラムが実現し強化学習の嚆矢となった。2015年には強化学習の枠組みのネックであった巨大なサイズになる状態価値関数、行動価値関数(Q値)を、深層学習(Deep neural network / Deep Learning = DL)によって学習する手法により、囲碁が世界チャンピオンに勝利した。その後、深層学習+強化学習により様々なゲームが人間を凌駕するようになった。不完全情報ゲームではNASH均衡解を誤差εで近似獲得するCFRによってリミテッドポーカーでは人間より強くなった。その後、CFRの大規模な状態表も深層学習で獲得する手法が検討され、アンリミテッドヘッズアップ(二人)ポーカーや、多人数テキサスホールデム(ポーカー)で、人に匹敵する成果をあげるようになった。
2015年以降の深層学習による成果で、囲碁やチェスなど完全情報二人ゲームにおいて、人を凌駕するゲームプログラムが多く現れたことで、研究の余地がなくなった、という誤解が生まれている。これらの成果は、あくまで「人よりは強くなった」だけであって、ゲームの本質(解)に至ったわけではないことを注意しておく。2021年現在では、しばしばゲーム関連AIの研究論文の冒頭などで「DLによる手法で完全情報二人ゲームに関する研究は終わり、これからは多人数、不完全情報ゲームの研究が必要である」という趣旨の文言が使われることが多いが、これは、研究が終わっていない点、多人数、不完全情報ゲームの研究も相当に進んでいる点、の2点において事実と異なっている。当面の計算機能力では、囲碁将棋チェスにおいて完全な解を得るには至っておらず、こうした人を凌駕した先にある大規模なゲームの研究が依然として進められている。