“这种情况下,我们面临一个巨大的挑战:如何让庞大、复杂的ai模型,在这些资源有限的“小设备”上,也能跑得又快又好,还能实时响应?
\n
以下四点是我认为的需要解决的几个痛点:
\n
1.尺寸不符:大模型在小设备上跑不动,或直接装不下。
\n
2.速度滞后:即使勉强能跑,响应速度也慢,用户体验差。
\n
3.能耗巨大:小设备电池续航有限,大模型会迅速耗尽电量。
\n
4.网络依赖:依赖云端意味着有延迟,且断网就失效,yingsi也难以保障。”
\n
“不好意思,我打断一下。”
\n
“老师您说。”
\n
“你刚才提到了这些大模型性能虽强,但资源消耗巨大,而现在你想把这些大模型塞进小设备里,其中的难点我理解,
\n
但是,既然这些顶尖大模型在云端表现如此出色,为什么我们非要执着于把它们硬塞进边缘设备?
\n
云端计算的便捷性和可扩展性难道不更符合ai发展的趋势吗?边缘部署的必要性到底有多强?”
\n
这个问题问的非常刁钻,如果周昀不能回答,那就算是从根本上否定了研究的必要性。
\n
“老师的问题确实非常关键,如您所言,云端大模型在性能和可扩展性上确实有无可比拟的优势,
\n
但是大模型的基石是数据!
\n
在金融、医疗、国家安全等高度敏感的行业,数据“不出境”或“不出厂区”是严格的法律法规要求。
\n
这种情况下,任何云端
本章未完,请点击下一页继续阅读! 第4页 / 共5页