Julia:Zygote 上自定义后向传播
Zygote 是 Julia 上一个实现自动微分、自动求导的包,其中 @adjoint
宏是 Zygote 接口的一个重要组成部分。使用 @adjoint
可以自定义函数的后向传播。
Pullbacks
要理解 @adjoint
首先要先理解更为底层的函数 pullback
。gradient
实际上就是 pullback
的语法糖(syntactic sugar)。
julia> y, back = Zygote.pullback(sin, 0.5)
(0.479425538604203, Zygote.var"#41#42"{Zygote.ZBack{ChainRules.var"#sin_pullback#1430"{Float64}}}(Zygote.ZBack{ChainRules.var"#sin_pullback#1430"{Float64}}(ChainRules.var"#sin_pullback#1430"{Float64}(0.8775825618903728))))
julia> y
0.479425538604203
给 pullback
输入两个参数 sin
和 0.5
分别代表要求导的函数和要求导的值,会得到两个输出:给定函数的结果 sin(0.5)
以及一个 pullback
,也就是上面代码中的 back
变量。back
对函数 sin
进行梯度计算,~~接受的是一个派生,并且产生新的一个变量。~~从数学上讲,就是 vector-Jacobian 积的实现。其中 和梯度 写为 ,pullback 如下计算:
更为具体的讲,以上面的代码为例子,函数 . ,所以 pullback 就为 ,其中 。换句话说,pullback(sin, x)
与 dsin(x) = (sin(x), ȳ -> (ȳ * cos(x),))
等价。
gradient
中函数 并且假设 ,并且将其输入到 pullback 中。在 sin
的例子中,
julia> dsin(x) = (sin, ȳ -> (ȳ * cos(x),))
dsin (generic function with 1 method)
julia> function gradsin(x)
_, back = dsin(x)
back(1)
end
gradsin (generic function with 1 method)
julia> gradsin(0.5)
(0.8775825618903728,)
julia> cos(0.5)
0.8775825618903728
julia> back(1)
(0.8775825618903728,)
个人理解,为什么前面要加一项 ,这是为了实现链式法则。比如假设最终的损失是 ,函数 ,要得到损失函数 对参数 的微分 ,根据链式法则就是损失函数对函数 的微分乘以函数对参数 的微分,即 。函数 的 pullback
就是损失函数对函数 的微分(用 表示)乘以函数对 的微分。
对于上面的例子,pullback
函数返回的第一个结果为:假设函数 就是损失函数 时, 时的结果,即 ,并且返回的 back
就是一个关于 的函数,可以看成是 。
假如 ,我们可以得到 ,那么 。
参考:
包括机器学习、神经网络、深度学习、强化学习各种方面的文章