山内研究室ではComputational Intelligence (計算機で実現する知能)について研究しています
2024年度 卒業研究・大学院生の研究
自己増殖型連続畳み込み
ニューラルネットワーク
従来研究の連続畳み込みの後継モデルであるSMPConvモデルでは、時間的・空間的に不規則にサンプリングされたデータを扱えることや、大きな畳み込みカーネルを効率的に構築可能であるなどの有用性があった。
しかし、実験データごとに誘導点数を設定する必要や計算速度が誘導点の数に依存することなどが問題点として挙げられる。
提案する手法の自己増殖型連続畳み込みでは学習時に誘導点数を自動で増減させることで従来の手法と同等の精度を保ちながら、計算速度の削減に成功した。
Novel: Reproductive Grey Wolf Optimizationの提案
Reproductive Grey Wolf Optimizationの提案
従来研究で最新のGWOモデルだが、すべてのベンチマーク関数で最適解が出なかったため更なる改良の余地がある状態である。GWOの更新イメージでありωは上位三匹に依存して動きます。しかし、依存して動くがゆえに左の図のように偽物と書いてある局所解に陥りやすい特徴がある。
IGWOではすべてのベンチマーク関数で最適解を求められず、まだ改善の余地がある状態である。更なる収束速度、学習精度の向上のために遺伝的アルゴリズムGAの繁殖を参考にしGWO型に改良した繁殖を導入し、Reproductive Grey Wolf Optimizationを提案する。多様性を高め局所解への陥りを防ぎながら更なる収束速度、学習精度の向上を図る。
2023年度 卒業研究・大学院生の研究
SOMを用いたWord Embedding手法
従来手法のWord Embeddingは自然言語処理分野の基礎となり単語を多次元空間のベクトルに変換する手法がある。
しかし、手法の一つであるWord2vecには小規模なデータセットで行うと言語の多様性を捉えることが出来ず、未学習になることや過度に適合してしまう問題があった。
提案する手法は高次元データを二次元平面にマッピングを可能にするSOM(Self-Organizing Map)を用いる。同様の問題点を持たないSOMを使用し、Word Embeddingを行い問題点の改善する。
段階的に成長するSparse DanseNet
従来手法のSparseNet(Sparse DenseNet)ではDenseNetにショートカット接続の削減、段階的に畳み込み層の数を増やす変更を行い、CNN(Convolutinal Neural Network) の精度向上に成功した。
CNNの精度向上には一層あたりの幅を変えることでも精度向上が見込める。
提案する手法では幅に依存する成長率を段階的に増加させることで、SparseNetの良さを残したまま更なる計算量削減、精度向上を図った。
Balt: Zeroth-Order Soft Actor-Critic
Zeroth-Order Soft Actor-Critic
従来手法のZOACをon-policyなActor Criticを使用して実装を行うのではなく、off-policyなActor CriticであるSoft Actor Criiticを組み合わせたZOSACを提案した。
10*10の迷路探索問題を解くことで実験した結果、正と負の報酬がある環境ではZOACと比べた結果、サンプル効率と安定性の向上に成功し、ES+SACに提案手法を実装してESと比べた結果についてもサンプル効率と安定性の向上に成功した。
正の中で大小で分け、報酬がある環境では提案手法はサンプル効率は低下、安定性は向上した。
リコピン: 多重位相空間が相互作用するLV-SOINN
多重位相空間が相互作用するLV-SOINN
従来手法のSOINNは、入力データを基にネットワークを形成するオンライン教師なしアルゴリズムであり、「事前にネットワークを決定する必要がない」、「追加学習が可能」、「高いノイズ耐性を持つ」といった特徴を持っている。そして、SOINN学習後、SOINN空間の位相構造を維持したまま低次元空間に描画できるようにしたアルゴリズムが、もう一つの従来手法のV-SOINNである。
提案手法のLV-SOINNでは、V-SOINNによる低次元空間の情報をさらに利用することに加え、SOINNのアルゴリズムを改善することで、高次元データへの性能向上と、学習の安定化を図る。
実験結果として、識別率が3.8%向上し、ノイズノードの増加が抑えられることで、性能が向上した。また、識別率分散は約50%小さくなり、学習の安定化にも成功した。
2022年度 卒業研究・大学院生の研究 2023年3月電子情報通信学会NC研究会
スパース化DenseNetにおけるNode Fusionの提案
前層と後続層の連結を行うことで情報を保存維持できるDenseNetに対しL1正則化を導入することで学習パラメーターをスパース化するSparse DenseNetを実装した。このモデルの全結合層の隠れ層においてノードを削除し他のノードに付加するNode Fusionを提案した。
これにより精度の維持に成功し、計算量を削減した。
好奇心探索に基づく利益分配深層強化学習
従来手法のDQN(Deep Q Network)を用いて状態が連続値の複雑な環境やゲーム環境のような状態数が膨大な環境での学習に成功した。
従来手法2のDQNwithPS(DQN with ProfitSharing)は一般的なDQNよりも学習スピードが速く、ネットワークの重みの収束が速いという利点がある。
そして従来手法3の好奇心探索とはエージェント自身が生成する内部報酬を好奇心として探索に活用する手法である。
そこで問題点はある。報酬を得たら分配を行うため学習初期ではあまり発揮されないという問題が発生した。
提案する手法では、好奇心探索により内部報酬で学習初期を補い報酬分配の機会を増やして高速化を図ることで経験メモリに状態Stの内部報酬Riを保存することにより問題点を改善する。
高次元耐性のあるSOINN空間の最適化手法の提案
従来手法のSOINN(Self-Organizing Incremental Neural Network)という手法には、ノードが過剰に挿入される、疎なデータ空間上のノードが削除されてしまう、あいまいなノードが生成されてしまう、などの問題がある。
そこで閾値を拡大することでノードが挿入される条件を厳格化する(提案手法1)、ランク選択モデルを導入し特徴あるデータを再利用する(提案手法2)、あいまいなノードを再学習する(提案手法3)といった手法を提案し、識別率の向上、学習時間の削減、ネットワーク生成の安定化を目指す。
実験結果として、ノードの過剰生成、削除の抑制、ネットワークの生成の安定化を達成することができた。
2021年度 卒業研究
Wave:Improving Computational Cost in Supervised Contrastive Learning
SCLにおける計算コストの改善
64バッチでの結果
500バッチでの結果
SCLにおける計算コストの改善
従来手法のSCL(Supervised Contrastive Learning)という手法には学習の際に多くの負例サンプルが必要になり2000バッチ以上ものバッチサイズを必要し、学習回数350回以上ないと精度が保てないという問題 がある。
そこでSCLと教師ありCNNを融合し学習するTSCLという手法を提案することで計算コストを減らしつつ精度を高める学習をしていくことを目指す。
実験結果として64バッチではCNNのほうが精度が良いが500バッチでは提案手法であるTSCLのほうが精度がよくなり、従来のSCLよりも小さいバッチサイズでの学習でCNNより精度が向上した。
Waka:Layer Fusionを導入したMobileNets
Layer Fusionを導入したMobileNets
従来手法であるMobileNetsではDepthwise Sepalable Convolutionという畳み込み層を分割する手法によって精度を落とさず計算量の大幅な削減に成功した。しかし、層が増えることによりモデルが複雑化し、情報を多く保持する分メモリの使用量が増大する。
そこで中間変数の削除とLayer Fusionを導入することでネットワークモデルの簡略化とメモリ使用量の削減で、精度を落とさず計算時間を削減することを目指す。
実験結果として計算時間はDele(中間変数の削除)+LF(Layer Fusion)が一番削減できている。精度はLFが提案手法の中でよいことがわかる。
今回の提案手法である中間変数の削除とLayer Fusinoの導入の両方を導入したことにより精度を落とさず計算時間の削減に成功した。
ぱる:Improving Learning Efficiency by Rough State Recognition in A3C
A3Cにおける粗視化の導入による学習効率の改善
A3Cにおける粗視化の導入による学習効率の改善
従来手法であるA3C(Asynchronous Advantage Acter-Critic)では分散学習における学習の安定化が期待できる。しかし、エージェントが多いほど状態数が多くなり、状態数が多いと学習測度の低下やメモリ、計算量が多く必要となる。
そこで知覚情報を粗くすることで探索すべき状態数を削減させることを提案する。
実験結果は行動回数をまとめており、上の表の従来手法の中で一番結果が少ないAsynchronousの結果と提案手法の結果Aを比べると約43%の削減に成功した。
畳み込みニューラルネットワークにおけるハイブリッドスパース化
畳み込みニューラルネットワーク(CNN)は画像分類や物体検出などの分野で高い精度を実現している手法だが、大規模なものになると冗長なパラメータが多くなり過学習という現象に陥ってしまうことがある。
従来手法ではL1ノルムまたはL0ノルムの正則化によるスパース化で冗長なパラメータを削減して過学習を抑制するものがあるが、L1,L0両方のノルムを正則化する手法は無かった。
そこでL1,L0の両方を正則化するハイブリッドスパース化手法を提案し、スパース度において従来手法を上回る結果を得た。
Relay BPにおけるアンサンブル学習の適用
畳み込みニューラルネットワーク(CNN)の欠点である勾配劣化問題、勾配消失問題を解決するRelay BP法に、アンサンブル学習の導入を行い、学習時のみに使用されていた中間出力モジュールを推定時にも活用することで、分類精度の向上を実現しました。
クラスタリング精度(正答率)による比較
ノード数の比較(少ないほうが良い)
スパース性に基づいた自己増殖型ニューラルネットワークの提案
従来手法として自己増殖型ニューラルネットワークをもとにしていて、ニューラルネットワークは入力に対して動的にネットワーク構造を変化させるため、追加学習が可能でノイズ耐性の高いSOINNは実世界に溢れる情報に即した逐次的な学習を可能としている手法である。
今までは、接続ノードが1以下のみ削除していたが、提案手法ではスパースの考え方(不要なデータを0に近づける)を用いて次元の圧縮を行っていくというもの。
実験結果として、正答率は既存手法より、0.5%上昇し、ノードは6万のデータの時20以上のノード削減が行えた。
一定周期で既存ノードの重みによる参照次元の最適化が行われるため、位相構造だけでなく属性値に対しても動的なネットワークで、かつ次元を減らすのでネットワークとしてより強固なものになった。
過去の研究成果発表 電子情報通信学会 ニューロコンピューティング研究会 2020年3月
自己組織化マップは,大脳で行われる学習を参考にした仕組み.
1.入力データに一番似たデータを探す
2.周囲を入力データで塗りつぶす
1,2を繰り返すとデータの分類ができる.
問題点:学習中にデータが散らばると,グループ間が不鮮明になる.
提案手法:データに属性値情報を導入し,学習の進捗を調整する.
→データを集約し,他グループへの影響を減らす.
提案手法は散らばりを平均50%削減し,認識率を平均2.7%向上させる.
図を比較すると,提案手法の散らばりや認識不能な文字が減少している.
2020年度 卒業研究
Zan : LD-SOIINによる偏りのあるデータクラスタリング
Kaku : Speeding up for Deep Learning via Layer Erasure and Re-tranig : 深層学習における層削除と再学習による高速化
Oct : Improved TSP Solution for IPSO by Nearest Neighbor Algorithm : 多角的挿入操作PSOによるTSPの解法
Maro : Enhancing Adversarial Generative Networks and Improving Robustness by Multiple Learning : 多重学習による敵対的ネットワークの強化とロバスト性の向上
Caramel Latte : Optimization of Hyperparameters and Feature Selection for Random Forests and Support Vector Machines by Artificial Bee Colony Algorithm
ABCにおけるハイパーパラメータの複合最適化法の提案と評価
ABCにおけるハイパーパラメータの複合最適化法の提案と評価
分類(回帰)のルールをツリーで表現したものを決定木といい、決定木の集合をランダムフォレスト(RF)といい結果をRFの多数決で決める手法を改良します。分岐点などのハイパーパラメータの改良が今回の目標で、同じ精度で計算量が多い決定木を減らす目的である。
実行結果では、検証開始から高い精度で学習を繰り返すと精度が上昇していき、従来手法では97%までしか精度がなかったものを提案手法では、99%まで上げることに成功した。
2019年度 卒業研究