Neural Networks Learning
0. design model
设计模型: lay_in, lay_hidden, lay_out
1. randomly initalize theta
initalize each theta(l) to a random value [-e, e]
2. forward propagation
2.1. compute a(l)
计算 layer l 上的 a(l)
2.2. compute cost J(theta)
# 3. back propagation # 3.1. compute delta
3.2. compute Delta
3.3. compute partial derivatives
4. add regularizaton
5. gradient checking
利用一个小规模的模型,来验证代码的正确性
6. use gradient descent or advanced optimization method try to minimize J(theta)
使用梯度下降或者高级方式迭代(如:fmincg), 最小化代价 J(theta)
options = optimset('MaxIter', 50); |
P.S.
写公式的方法 |
效果