本研究では、時系列データにおいて、過去の状態や並び方がその後のデータにどの程度影響を与え続けるのかを数値的に評価する手法について検討した。時系列データの中には、わずかな順序の変化によって特徴が失われランダムな性質を示すものもあれば、大きく順序を入れ替えても全体としての特徴を保つものが存在する。本研究では、このような過去の情報が残り続ける性質を、時系列データが持つ「記憶力」と呼ぶ。
従来、時系列解析では自己相関関数や相互情報量が、データの依存構造や時間的関係性を調べる指標として用いられてきた。これらの指標を用い、完全に順序をランダム化したランダム・シャッフル・サロゲート法(RSS法)によるデータと比較することで、元のデータがランダムであるかどうかを判定することは可能である。しかし、これらの手法は、「記憶力」が失われるまでに必要な操作量という観点から、その強さを直接比較するものではない。
そこで本研究では、元の「記憶力」をある程度保持したまま部分的なランダム化を行うスモール・シャッフル・サロゲート法(SSS法)を用い、シャッフルの範囲を表すパラメータAに注目した。本研究では、このAをデータがランダムな状態へと移行する過程において、元の構造とランダムな状態とが混合していく距離を表す量と捉え、「ランダム化混合距離」と定義する。SSS法による自己相関関数および相互情報量の分布が、RSS法による分布と一致する最小のAを求め、この値を「記憶力」の強さを表す指標として定義した。
人工的に生成した時系列データに加え、金融データ、電流のゆらぎデータ、気象データなどの実データに提案手法を適用した結果、データの種類や性質によって必要な「ランダム化混合距離A」に差が生じることが確認された。以上より、本手法を用いることで、時系列データが持つ「記憶力」の違いを定量的に比較・評価できる可能性が示された。