深層学習 https://asciidwango.jp/post/171302668055/%E6%B7%B1%E5%B1%A4%E5%AD%A6%E7%BF%92 の誤植
2019年4月購入の、 Kindle 版。()内は、私のコメント。
最終更新 2019年6月6日
3.9.3
誤
2 つ 目 は, 同じ 分散 を 持つ すべて の 確率分布 の 中 で, 正規分布 は 実数 における 不確実 性 の 最大 と なる 量 を 符号化 する
原文
encodes the maximum amount of uncertainty
正
最大の不確実性を符号化する(くらいの方が、日本語として読みやすいでしょう。)
3.14
誤
相互 に つながっ て いる ノード の あらゆる 集合 は, いずれ も クリーク と 呼ば れる.
原文
Any set of nodes that are all connected to each other
正
全て相互 に つながっ て いる ノード の集合 は,
4.1 (4.1) 式の後のパラグラフ
誤
代わりに softmax(z) を計算することで解決できる。
正
z = x - maxi xi とした softmax(z) を
4.4 の脚注
誤
KKT 法 は ラグランジュ の 未定 乗数 法( Lagrange multipliers) を 一般化 し た もの で, 等式 制約 を 許容 し 不等式 制約 は 許容 し ない.
正
KKT 法 は ラグランジュ の 未定 乗数 法( Lagrange multipliers) を 一般化 し た もの である。後者は, 等式 制約 を 許容 し 不等式 制約 は 許容 し ない.
5.1.3
誤
やで, この よう な 種類 や 形 の 異なる データ を 扱う 方法 を 説明 する.
正
9.7 節や 10 章で、このような
誤
図5.5 が、5.2 と同じ。
正
左のグラフは、水平線になるはず。
6.1 (6.11) の前
誤
に示したように各事例は
正
図6.1に示したように
6.5.4
誤
損失 関数 の 例 について は{\ boldsymbol{ v}}' = {\boldsymbol{ A}} {\boldsymbol{ v}} = {\boldsymbol{ v}} を 参照)
正
6.2.1.1 節を参照
7章、深層学習の観点では、で始まる段落
誤
で汎化と過剰適合について
正
5章で
7.3
誤
この 行列 は, データ 生成 分布 が 任意 の 方向 で 真に 分散 を 持た ない 場合 は 必ず, そう で なけれ ば 入力 の 特徴 量( の 列) よりも サンプル 数( の 行) が 少ない ため に 任意 の 方向 で 分散 が 観察 さ れ ない とき は, 特異 になり うる.
正
この 行列 は, データ 生成 分布 がある方向で実際に分散を持たない場合は必ず, そう で なけれ ば 入力 の 特徴 量(X の 列) よりも サンプル 数(X の 行) が 少ない ため に ある方向 で 分散 が 観察 さ れ ない とき は, 特異 になり うる.
7.12
誤
具体的には、ドロップアウトは、。。出力のないユニットを削除し、
原文
nonoutput units
正
出力層以外のユニット
8章
誤
勾配に基づく。。読者はを振り返ることを勧める。
正
4章を
8.1.3
誤
確率的手法の標準的な例の1つに。。これはで詳細に説明
正
8.3.1 節で詳細に
8.2.1
誤
に、ニューラルネットワークの訓練がうまく進んでいる
正
図8.1に
8.2.3
誤
Goodfellow et al. (2015) では, で 示す 例 の よう な,
正
9章
誤
一般的 な 方針 について はを 参照 さ れ たい.
正
9.10
誤
アテンション メカニズム はで 説明 する よう に,
正
10.1
誤
変数 は, の 右図 の よう に
正
10.2.3
誤
原則 として ほとんど すべて の 損失 を 利用 する こと が できる
正
原理的には、どんな 損失 を 利用 する こともできる。(しかし、と続く。)
10.2.3
誤
回帰 結合 型 ネットワーク の パラメータ を 削減 し た こと によって, その パラメータ の 最適化 が 困難 に なる
原文
price recurrent networks pay for their reduced number of parameters is that optimizing the parameters may be difficult.
正
回帰 結合 型 ネットワーク の パラメータ数を 削減 することの弊害は、パラメータ の 最適化 が 困難 に なる(削減したのなら、そのパラメータは最適化できないよね、変だな、と思ったら少し違った。)
10.4
誤
では、 RNN が入力系列を
正
10.7 節のタイトル
誤
再帰型ニューラルネットワーク長期依存性の課題
原文
The Challenge of Long-Term Dependencies
正
長期依存性の課題(あえて入れるなら、回帰結合型)
11.3
誤
にあるように、訓練集合の
正
11.6
誤
n 個 の ソフトマックスユニット で 構成 さ れ, n 個 の 文字列 を 予測 し た
原文
sequence of n characters
正
n 文字のシーケンス を 予測 し た
12.5.2.1
誤
は これ で 終わる が
正
14.2.1
誤
見方 はで 説明 し て いる
正
3部
誤
本書 ので 議論 さ れる よう に
正
14.2.2
誤
雑音 除去 自己 符号化 器 はで より
正
14.4
誤
その後, の 最小 化 によって 自己 符号化 器
正
14.7
誤
縮小 ペナルティ 項 は, で 議論
たとえば, に 示し た 1 次元
正
15.1
誤
はに 示し た 教師 あり 事前 学習
正
15.6
誤
理想的な表現とは、。。変動の原因因子をひもとくものである
原文
disentangles the causal factors of variation
正
個々の変動の原因因子を分離して明らかにするものである。(くらいで、どうかな。紐を、ほどく、のは原義であるが。)
16.2.4
誤
物理的 な エネルギー を 指し, 任意 の 符号 を もた ない
原文
does not have arbitrary sign.
正
符号は任意ではない(正定値に決まっている。エネルギーだから。ここでは、 -E は物理屋さんのノーテーションだから従うように、という話をしている。)
17.2
誤
これは p(x) が小さく、p(x) も f(x) もそれを
正
q(x) が小さく
以上