,θ),
\n
这样就能得到一个组合的惩罚项,也就是一般模型里的损失函数l_meta(φ,θ)=l_task(θ')+λ*r(φ),
\n
我们并不追求一个无限递归的最优,而是试图找到一个平衡,这正是一个纳什均衡点的概念。
\n
之后我设计了一个交替优化算法来逼近这个均衡点,其迭代过程可以假设地抽象为一个映射t:(θ_k,φ_k)->(θ_{k+1},φ_{k+1})
\n
......
\n
经过以上的过程,我们就可以证明t确实是压缩映射,根据banach不动点定理,
\n
这个映射就存在唯一的不动点,并且无论从任何初始点开始迭代,
\n
该算法都会以线性收敛速度全局收敛到这个唯一的不动点(θ*,φ*)。
\n
而这个不动点正是我们寻求的纳什均衡。”
\n
其实说到一半的时候大部分人就已经跟不上周昀的思路了,毕竟不是数学系的,
\n
对于这种数学证明,大部分人都不是特别擅长,更别说周昀这个证明也没那么简单。
\n
不过何凯明倒是能跟得上,毕竟他在从事计算机的研究之前,是水木大学物理系的学生,数学功底也会强一点。
\n
周昀说完,再次向何凯明微微点头示意:“不知道这个解释是否回答了您的问题?”\n', '\n')