このページでは「オンライン機械学習」に関する 追加情報・正誤表・サンプルコード等の情報を掲載します。
お知らせ- 2015/6/11 第三版を出版しました。
- 2015/5/7 正誤情報を追加しました。
- 2015/4/20 正誤情報を追加しました。
- 2015/4/17 Twitter公式アカウントを開設しました。
- 2015/4/17 正誤情報を追加しました。
- 2015/4/14 第二版を出版しました。
- 2015/4/7 サポートページを開設しました。
書誌情報- タイトル:オンライン機械学習
- 著者:海野 裕也、岡野原 大輔、得居 誠也、徳永 拓之
- シリーズ「機械学習プロフェッショナルシリーズ」
- 編集:
- 出版社:講談社
- Amazonリンク
目次- 序論
- 機械学習とは
- オンライン学習とは
- オンライン学習の特徴
- オンライン学習の短所
- この本の構成
- 準備
- 数式を読む際の心構え
- 数式についての約束事
- 凸関数と非凸関数
- 基礎
- 二値分類
- 線形分類器
- パーセプトロン
- 目的関数と最適化手法
- サポートベクトルマシン
- ロジスティック回帰
- 正則化の効果
- 二値分類器の性能評価の方法
- 二値分類のまとめ
- 多クラス分類
- 応用
- 発展編
- 高精度なオンライン学習
- オンライン分散並列学習
- 深層学習で使われるオンライン学習
- 性能解析
- オンライン学習の性能
- パーセプトロンの学習定理
- 線形分離可能でない場合のパーセプトロンの学習定理
- リグレット解析
- 実装
- ベクトルの実装
- アルゴリズムの実装
- 浮動小数点における制約
正誤表
P.33 式3.13 誤: 正:
P. 34 3行目 誤: 正:
P. 34 式3.17直前誤:最大化することが正:最小化することが
P.37 アルゴリズム3.3 8行目 誤: 正: P. 90 式4.44, P.91 式4.45 誤:
p.107 式5.15の直前 誤:最初のn次元 正:最初のm次元
p. 126 式6.1の直後 誤:averaged stochastic discent 正:averaged stochastic descent 関連情報 |