而这也是马库斯所要倾诉的困扰。
“说起来,最近的研究还卡在了『梯度消失』的问题上。”马库斯苦笑著说道,靠在沙发上,“我们在训练一些更深层次的神经网络时,发现模型一旦超过一定的深度,反向传播算法中的梯度会逐渐趋近於零,根本无法有效更新权重。深度越大,梯度就越容易消失,整个网络的学习效率大幅下降。”
马库斯知道林枫硕士是麻省理工学院的计算机硕士,因此也就全都用专业术语表述了。
对於这些林枫当然能听明白,非但能听明白,而且作为一个资深的人工智慧从业人员。
林枫也清楚知道马库斯面临的难题。
林枫对ai的发展也有所了解,涉及到梯度问题在2014年是深度学习研究中的一个巨大挑战。
甚至可以说解决不了梯度问题就很难有真正的深度学习,也就不会有后来的人工智慧成果的一系列井喷。
林枫心说,自己这是一不小心站在了技术发展的最前沿了吗?
不得不说,这种举手投足之间就能影响时代命运的感觉是真的无比美妙。
“梯度消失的问题一直存在,尤其是深层网络。梯度爆炸倒是相对好解决,但梯度消失会直接导致学习过程停滯不前。”林枫沉思片刻,补充道,“这不仅是你们实验室的问题,也是整个领域的瓶颈。反向传播的基本原理决定了,当信號在网络中层层传递时,梯度的变化会以指数级缩小。”
马库斯脑海中泛起了大大的问號,梯度爆炸问题好解决吗?
他怎么觉得梯度爆炸问题也挺麻烦的?
不过聊天本来就是求同存异,既然林同样认为梯度消失难以解决就够了。
&n
本章未完,请点击下一页继续阅读! 第3页 / 共4页