Neural Networks Learning
0. design model
设计模型: lay_in, lay_hidden, lay_out 
1. randomly initalize theta
initalize each theta(l) to a random value [-e, e] 
2. forward propagation
2.1. compute a(l)
计算 layer l 上的 a(l) 
2.2. compute cost J(theta)
# 3. back
propagation # 3.1. compute delta 
3.2. compute Delta
3.3. compute partial derivatives
4. add regularizaton
5. gradient checking
利用一个小规模的模型,来验证代码的正确性 
6. use gradient descent or advanced optimization method try to minimize J(theta)
使用梯度下降或者高级方式迭代(如:fmincg), 最小化代价 J(theta)
options = optimset('MaxIter', 50); |
P.S.
写公式的方法 |
效果