现在工商银行的股息率还有7%,起步拉到3%的股息率,我们国内最要紧的不是房地产救不救问题,而是什么时候4000点,因为上了4000点,房地产再有天大的问题也再是问题了。
今天参加一个重要会议,得知国内需求算力是150万张?Hw40-50万张,其余的谁来补?大家应该清楚了吧?看最近走势就明白了。最近英伟达又在新高的边缘,大家都知道我是极力反对AI“寒冬”论的,我觉得大家质疑AI的主要几个原因:
1、发展太快了,以至于大部分人无法判断AI的终点是什么。
2、AI虽然发展快,应用也很火爆具有颠覆性,但一直都无法走进用户端。所以很多人觉得AI的投入与产出不成正比。
今天跟大家谈三个问题。主要是大模型未来的走向,大家有兴趣的可以关注我哟。
01
—
GPT-4o的极度缺算力
在讨论GPT-4等大型语言模型时,一个关键问题在于算力。就是transformer这个算法真的是算力消耗的无底洞啊。在用这个架构传输数据方面,这个过程消耗算力是相当的惊人,所以必须要打破这个架构,否则多模态很难商业化。
再加上随着使用这些GPT模型的用户增多,OpenAI的中心服务器一定是会面临巨大的算力压力。因为大量用户同时向服务器发送请求时,服务器压根无法及时处理所有人的请求,导致延迟增加,影响用户体验。这种情况在处理多模态输入时尤为明显。
我给大家举个例子,例如你通过手机摄像头进行视频输入,或者通过声音输入,那么数据量将远远超过简单的文字输入。音频的输入就比文字的输入的带宽大,而且是用声波来做token。这意味着,为了处理这些多模态数据,需要更多指数级的算力资源去处理你发出的请求。OpenAI面临的挑战是如何在不增加延迟的前提下,满足用户对多模态输入的需求,也就是说算力,所以我的判断GPT-4o是绝对不会开放的,至少在没有解决算力之前是不会对外开放。
02
—
模型大小与多模态处理(为何看好端侧大模型?)
针对算力挑战,一个可能的解决方案是开发更小型的模型,以便在本地设备上运行。其实这点上我们国内商汤做的非常好,商汤的端侧模型应该是国内的先驱,众多大模型公司如果想走行业模型,完全可以模仿商汤的打法。因为这样的模型可以在不牺牲太多性能的前提下,减少对中心服务器的依赖,这样开发的效率是极高的。
大家想象下,现在苹果是接入Open AI,全球几十亿用户,一旦开始使用苹果手机多模态功能,那么奥特曼的服务器一定会爆掉,因为目前的算力根本无法支撑苹果几十亿用户的使用。所以现在多模态处理确实是一个挑战,我还是觉得通过模型压缩、知识蒸馏等技术,可以在保持性能的同时,减小模型的大小,也就是我说像商汤一样做端侧模型。这样的模型更适合在资源有限的设备上运行,也能够更好地应对突发的大量用户请求。此外,一个能够支持多模态输入的轻量级模型,也有助于提高用户的参与度和互动体验。
我觉得未来的端侧大模型在手机、汽车、电脑上,就是把这个模型token的很多的处理能力分散到终端上,至少在终端上能实现对图片、对视频、对音频基本的识别和处理。一些复杂的逻辑再到云端。这样把算力从一个中心化的算力变成中心化算力,加上分布式算力。把全世界几亿台电脑,几亿台手机的终端算力充分的调动起来。这样才有可能变成一个我们想象的未来人工智能可以像真人一样跟我们自如交流这样的一个模式。
03
—
OpenAI的免费策略与未来展望(大模型的变现模式需要观察)
最近现在大模型将服务免费化的策略的问题一直都是大家关注的地方,也可能是为了吸引更多用户以获取数据,同时也是为了与谷歌百度等竞争对手竞争。这种策略的可持续性是用户关注的焦点。所以要想跟谷歌他们竞争,大模型们需要找到一种方法来平衡成本和收入。这可能包括通过其他方式盈利,如通过增值服务、广告或其他商业模式。说到这里,我是特别反感搜索引擎广告,体验感极差。
我觉得国内大模型面临的算力挑战、模型大小与多模态处理的需求,还有免费策略的可持续性,都是需要关注的重要问题。像科大讯飞商汤等大模型的成功不仅取决于技术上的突破,还取决于其商业模式的可持续性和用户的接受度。这种变现模式需要我们进一步跟进分析,如大家有兴趣可以点击关注我,或者留言哟!
© THE END
转载请联系本公众号获得授权