这场名为“尖峰对话:通往AGI(通用人工智能)之路”的圆桌论坛由智源人工智能研究院院长王仲远主持,在近一小时的对话中,他与百川智能创始人、CEO王小川,月之暗面创始人、CEO杨植麟,智谱AI CEO张鹏,面壁智能联合创始人、CEO李大海一起磋商了在通向AGI的路上大模型扮演的角色、AI安全与伦理,以及大模型“价格战”等问题。
过去一年多韶光,面对大模型的飞速发展,中国公司经历了惶恐期、投入期和迭代期,已经实现了从“追赶到并跑”的研发之路,并逐渐开启商业化。但随着行业格局开始明晰,价格战、AI安全和伦理,以及能否“大力失事业”等话题都成为行业辩论话题,这也让本次圆桌格外受到关注。
大模型“四小龙”谈“价格战”:扩产降本还是营销噱头?
“价格战”无疑是今年5月以来大模型领域的最大热词。率先“开卷”的是人工智能公司深度求索(DeepSeek),其发布的第二代MoE大模型DeepSeek-V2号称“性能与GTP-4(OpenAI公司旗下的一款天生式模型)同等,但价格只有GPT-4的百分之一”。随后,智谱AI、字节跳动、阿里、百度、科大讯飞、腾讯等浩瀚企业纷纭跟进,价格先被打入“厘时期”,随后更有企业“掀桌”般地宣告“全面免费”。
那么,现场的四位大模型创业企业首席实行官们又将如何看待大模型“价格战”?
智谱AI曾是大模型贬价潮的最早跟进者之一。谈及这一问题,智谱AI CEO张鹏认为,“价格战”是通过技能创新降落本钱并推动大模型遍及的手段,这一策略可以促进AI大模型成为像水电一样的根本举动步伐,从宏不雅观角度看,也有利于中国AI大模型家当的发展。
“很永劫光以来,智谱的价格一贯都是行业内较低的,技能能够把本钱的空间开释出来,使得企业ROI(投资回报率)大于1。”张鹏说。但张鹏也提示,过分关注本钱减少和低价策略,可能对商业可持续性构成寻衅。
在此前接管包括新京报在内的采访时,王小川曾明确表示,百川并不会“掺和”到价格战当中。在这次圆桌论坛中,他却剖析了“'价格战’对中国发展大模型的益处。”在他看来,“价格战”一方面可以降落普通企业利用大模型的本钱,扩大市场;另一方面,可以让一些原来自主演习大模型比较“吃力”的企业,直接转化为大模型的利用者,减少投入和摧残浪费蹂躏。
“我不雅观察到,之前大家在惶恐的时候,由于不知道大模型为何物,很多企业但凡有点技能能力,都说我自己要训大模型,买卡。明明是消费者、利用方,但都想转型成为一个大模型的供给方,这会带来很多人才、资金和社会资源的摧残浪费蹂躏。”王小川称。在价格战之后,很多企业就开始复苏了,他就会退回成为大模型的用户,花费也会减少很多。
面壁智能CEO李大海则判断,“价格战”多多少少还是有一些营销的身分在,但他相信,未来API(运用程序接口) 价格一定会好比今这个还要便宜,并且大家都有利润,这才是康健的办法,并且这才真的让各个行业落地。
月之暗面创始人、CEO杨植麟认为,终极的价格战会回归代价本身。他的判断是,未来用于推理的算力将显著超过用于演习的算力。此后,C端(用户端)的推理本钱将显著低于获客本钱。在这两个条件之下,AI(人工智能)能做的事情可能会超过人做的事情。“到那时就可能会产生新的商业模式,不像是本日在 B端(商业端)用 API 去打价格战,而是普惠的AI,根据产生的代价来分润。”杨植麟称说。
“尖峰对话:通往AGI(通用人工智能)之路”的圆桌论坛。图|受访者供图
什么是通用人工智能:边际本钱为零还是无法量化?
从专家系统到机器视觉、卷积神经网络,再到现在的天生式大模型,人工智能的每一次打破,都让人类通往AGI的抱负有了更具象的可能,那么,到底什么才是AGI?
王小川通过比喻来理解AGI,即大模型能不能“造年夜夫”。之以是选择这一指标,是由于AGI的第一个变革是大模型开始具有思考、学习、沟通、共情乃至多模态处理能力,就像是年夜夫,既须要多模态,也须要减少幻觉,同时须要有强大的影象能力、查文献能力、推理能力,如果把行业上能共识的能力都投射到做年夜夫的标准中,那么这便可以成为一个指标——“人造年夜夫”便是AGI。
李大海则考试测验从经济学的角度定义AGI。在他看来,一个空想中的AGI,便是去实行任何任务的时候,边际本钱都已经降为零。去年行业里大家推动大模型落地时,很多场景还须要做微调,这个过程的边际本钱就很高。“我们相信,随着模型能力的提升,大模型门槛越来越低,本钱也越来越靠近于0的时候,AGI基本也就到来了。”李大海说。
杨植麟提出AGI的定义主要,但不需完备量化,在他看来社会对AGI的准备比详细定义更为关键。不过杨植麟还表示,在短期内,确实须要这样一种量化的定义,“由于如果完备没有量化,也自然无法衡量AGI开拓的进度,从而影响整体发展”。
张鹏则认为,对人工智能的发展而言,没人能够说清楚什么是AGI,反而可能是一件好事,这意味着还有更多未知空间等待探索。“如果能把一件事情说得非常量化、非常清晰,那么天花板估计也就触手可及了”张鹏说。
Scaling Law(规模效应)也在通往AGI的道路上被反复提及,这个类似于大模型版的“大力失事业”的法则,成功塑造出了OpenAI,但也面临着摧残浪费蹂躏资源等质疑。
杨植麟属于Scaling Law的武断推戴者。在他看来,模型的“大”依然是第一性事理,现在最大的问题是办理怎么取得原来稀缺或者不存在的数据,以及如何高效地形成规模效应。
但王小川则有点处于“中间派”。他认为,光靠Scaling Law是不足的,由于Scaling Law只能无比逼近AGI,达到AGI还须要不同维度符号和连接的领悟,即需探求新的范式转化。
智谱AI CEO张鹏和面壁智能CEO李大海的不雅观点,则更为守旧。张鹏认为,Scaling Law肯定是AGI的基石,但是不是基石之一还是个问号。李大海则强调,大模型一定是当前通往 AGI 这个方向上能走得最远的主要技能,但依然须要将Agent (智能体)转化为自身能力,从而更大的探索大模型的演习。
人类离AI安全风险有多远?
随着人工智能的发展,一些安全风险也逐步显现,乃至一些社会问题也逐渐显现,比如演习数据的滥用、个人隐私保护、失落业等,这些话题也同样在圆桌论坛中被提及。
杨植麟认为,AI安全非常主要,但不是当前最急迫的事情,AI安全须要长期布局。AI安全的寻衅紧张集中在两个层面:一是戒备用户恶意操纵模型,例如通过prompt injection(提示注入)勾引模型实行不当行为,这哀求模型设计需具备抵御此类攻击的能力;二是确保模型自身行为的可控性,即模型应遵照一套类似于“AI法律”的规则体系,无论面对何种指令或内在思考,都能坚守既定的行为边界,不偏离正轨。
在王小川看来,AI安全须要从意识形态安全、人类文明安全及现实功能安全三方面考量。首先,意识形态安全是底线。其次,AI反噬人类乃至导致人类灭绝的科幻情节是不会发生的。末了,他更方向于将AI视为做事人类文明繁荣与延续的工具,AI与人类共生,共同推动文明进步,而非设定限定。
李大海则认为,现阶段,AI安全的重点集中在根本安全与内容安全两大领域,须要确保技能运行的稳定性与输出内容的合规性,随着大模型技能的演进,未来的安全寻衅将更为繁芜。张鹏则表示智谱看重AI安全,已经签署了负任务的AI承诺书。
联系邮箱:avril-1989@163.com
新京报首席 白金蕾
编辑 陈莉
校正 柳宝庆