在2023年上海人工智能大会(WAIC)逛一圈,如果你想找大模型厂商,无需思考——找人扎堆的地方就可以。
(相关资料图)
作为国内AI界当之无愧的风向标,WAIC这次的主题前所未有地清晰——AI大模型。本届WAIC邀请超过400个企业参会,主办方甚至特设了AI大模型展区,大模型参数在10亿以上的AI厂商数量,就超过30家。
“大模型太多了!如果有哪家AI公司不做大模型,都不好意思露面了。”人声鼎沸的大模型展区中,一位投资人对36氪如此感叹。
无论是大厂还是垂直厂商,AI+多个行业解决方案已是标配。大模型展区宛如一个大型超市,专属解决方案琳琅满目,陈列其中:大模型+云计算、大模型+金融、大模型+教育……
但火热表象下,国内大模型产品“大同小异”——是36氪得到的普遍反馈。这既是技术发展初期的无奈,也同样是一种理性的现实。
百度文心一言企业级平台展区 拍摄:36氪
错位
ChatGPT火爆全球大半年后,如果说还有什么东西成为共识,“先落地”可能算第二个。
AI厂商再也不吹概念,迅速寻求在B端落地,这和2015年的AI浪潮全然不同。比如,腾讯云至今没有公布通用大模型“混元”的进展,但在6月中旬先高调公布了“行业大模型”的路线,一口气抛出10大行业超过50个解决方案。
这明显是国内客户更感兴趣的方向。
在百度文心一言、阿里通义千问的展位上,“企业级平台”、“专属大模型”被围了里三层外三层,来询问的企业客户络绎不绝。
一位文心一言员工告诉36氪,来咨询的客户,最关心的问题在于价格,其次是数据安全。“都直接问卖多少钱,什么时候能开始用。”
但大模型私有部署和使用成本还是太高,再加上算力供不应求。大部分企业其实暂时很难用上大模型,这种错位可能还要持续一段时间。
比如,阿里和腾讯如今都还是只定向邀约客户使用,标准化的API服务还没有全面开放。
一位外企IT从业者对36氪表示,他在日本的老板“很着急,很希望能尽快把大模型放到产品里,6月专门来国内找AI大模型服务商,8月还打算再来一趟。”
但在WAIC逛了一圈,上述从业者发现,现在的模型体量还是太大,部署太贵,“我们还是希望先找一个小的切入点,比如用较小的模型做智能客服,嵌入到业务当中。”
另一位阿里云员工则告诉36氪,现在做一个行业或者专属大模型,一般需要千万级别以上的预算,更适合业务体量较大的央国企和大公司。“部署成本比较高,我们也希望尽快把模型压缩到大家能接受的水平。”
为了解决“贵”的问题,阿里云也在通过开源模型、做生态来补足。阿里发起的大模型开源社区“魔搭”,就想做成一个大模型超市,陈列出更偏行业化的专属模型,目前已经聚集了900多个AI模型。
大会上,阿里云也发布了新产品“魔搭GPT”(ModelScopeGPT)。用户通过输入指令,可以一键调用其他的AI模型,用多个模型协同完成复杂任务,这也是降低大模型使用门槛的方式。
AI落地难,大模型要再经历一次
从年初业内惊叹ChatGPT的涌现算起,AI大模型的热度也不过半年。国内AI厂商离ChatGPT仍有不短的距离,但随着国内厂商迅速选择落地,不少难点已经显现。
本质上,AI大模型训练仍然昂贵,即便是大厂,也不可能不求回报地一直投入。这意味着,国内厂商刚开始做大模型,就面临着更残酷的生存考验。抢着在行业落地,也是希望能尽快商业化,再投入到AI模型的开发和训练中。
但资金只是入门券。抢先在行业落地,厂商们更多的是想抢占数据“高地”。
如果是做模型是烹饪,数据好比是食材,大模型对高质量的“食材”需求更高。但在公开互联网中,中文的高质量数据本就偏少,大模型厂商其实很难建立起数据壁垒。在国内厂商尚在追赶GPT-3.5的情况下,没有谁能显著拉开差距。
在很长一段时间中,数据会是更难的一环。一位头部社交公司战略人士告诉36氪,ChatGPT出来后,公司团队迅速就将国内大模型看了一遍,也都进行相应测试,“但他们既没有这个赛道的高质量数据,通用大模型能力又尚不足以支撑业务需求,测试下来,大家效果都一般般。”
为了拿到数据,一位大厂的大模型产品负责人对36氪表示,在其合作模式中,如果企业客户愿意提供数据(越有行业属性越好),他们愿意在商务权益上做出极大让步,甚至愿意免费为提供数据的客户部署大模型。
想要大模型顺利落地到场景中,难度也丝毫没有减小。
“企业需要的,是在实际场景中真正解决某个问题,而不是在100个场景中解决了70%-80%的问题。”腾讯云副总裁吴云声在WAIC演讲中表示。
问题在于,上一波以视觉识别(CV)为首的AI浪潮里,厂商们更先发展的是单点AI能力——比如用AI进行人脸识别,以API形式单次收费是更普遍的形式。但随着技术走向同质化,AI厂商们到后来只能开始做大项目、私有化部署。由于难标准化,账其实很难算得过来。
将大模型用在业务里,AI模型会和客户的核心数据结合得更加紧密。这意味着,想要真正解决客户最核心的业务问题,私有化必不可少,程度可能还会更深——厂商们也许需要帮助客户,从头对核心数据进行标注、训练,再进行模型训练。
谈及私有化大模型的投入产出比,账能算得过来吗?腾讯副总裁、腾讯云智能负责人吴运声对36氪坦承:“从现在的时间节点上看的话,确实会有比较大的挑战。”
如今,腾讯采取一种较为折中的办法——上个月,腾讯推出面向文旅、政务、教育、金融等十大行业,超过五十个解决方案。相当于“前进半步”,客户并不需要从头提供行业数据进行训练。在这些模型的基础上,客户只需要加入自己的场景数据进行精调,就可以快速生成“专属模型”。
归根到底,AI大模型技术仍然在快速发展中,成本上的博弈其实尚无定论。大模型的核心技术,以及算法、芯片等上游产业链都在快速迭代,成本下降其实很快。以百度为例,百度在今年3月发布AI大模型,到了5月,调用文心一言的成本,就已经降低到刚发布时的10%。
而在另一边,AI大模型会带来更大的应用层机会,用户付费意愿也会更高,这会带来更大的收入增量。
比如,近期行业里就冒出了不少针对营销场景的AI产品,有了AI大模型加持后效果显著,比如AI数字人——近期,不少数字人公司因此焕发新机,产品也迅速带来公司收入提升。
标签: