吴恩达 神经网络与深度学习 第一课第四周课后作业 4-1

Building your Deep Neural Network

1.初始化参数
W1,b1,W2,b2
2. forward propagation
Z[l]=W[l]A[l−1]+b[l]
where A[0]=X
3. 计算activation functio
sigmoid/relu
A[l]=g(Z[l])=g(W[l]A[l−1]+b[l])
output (A,cache)
其中cache 包括w1,b1…
4. 实现FP

AL, cache = linear_activation_forward(A,parameters['W'+str(L)],parameters['b'+str(L)],activation = "sigmoid")
    caches.append(cache)

5.计算 cost function
−1m∑i=1m(y(i)log(aL)+(1−y(i))log(1−aL))
np.dot不支持交换律
6.实现back propagation(以下的实现逻辑应该是倒着来的)

  • 取dZ,W,b 求dW,db,dA
  • 取dA,activation_cache求dZ,sigmoid/relu dZ[l]=dA[l]∗g′(Z[l])
  • 取AL,Y,caches 求dA
dAL = - (np.divide(Y, AL) - np.divide(1 - Y, 1 - AL)) 

7.计算梯度grads
grads[“dW”+str(l)]=dW[l]

8.更新参数
W[l]=W[l]−α dW[l]
b[l]=b[l]−α db[l]

全部评论

相关推荐

06-25 16:00
武汉大学 Java
工科研究生底薪工资就开3k啊??
机械打工仔:写文章提成的岗位工资低,你怪工科?
点赞 评论 收藏
分享
“校招”、“3-5年经验”
xiaolihuam...:逆向工程不是搞外挂的吗,好像现在大学生坐牢最多的就是诈骗罪和非法侵入计算机系统罪,发美金,还居家办公,就是怕被一锅端,
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务