周鸿祎受访 拍照:陈青青
2月15日,人工智能ChatGPT母公司OpenAI公布了一种新的人工智能系统Sora,该系统可以根据用户的文本提示创建逼真的视频,引发环球关注与谈论。360创始人周鸿祎16日发文说,OpenAI手里该当还藏着一些“秘密武器”,这样看来中国跟美国的AI还存在一些差距。他同时表示,科技竞争终极比拼的是人才密度和行业积累。AI不一定那么快颠覆所有行业,但它能引发更多人的创作力。
“我一贯坚持这么说,看到差距才知道怎么奋起直追。承认差距不是坏事,认为我们所有都遥遥领先了,那就(弗成了)。”周鸿祎23日在对《环球时报》进一步阐述称,自己认为中国和美国在人工智能上的差距紧张在“确定技能方向”上。
“谁选择到了精确的方向,精确的架构,全天下都会随着这个架构。”他阐明称,“比如,日本人当时做电动车,选的是氢架构,丰田走的是混动架构,而特斯拉走的是纯电池架构。我们实际上是武断追随特斯拉的架构,比亚迪率先学习,再通过不断发展,现在比亚迪在销量上是有机会超越特斯拉的。”
“通过这些例子,我是想解释,一旦技能方向确定了,中国公司的学习能力都很快。尤其当同行发布开源的东西、公开的论文后,中国团队去跟进,不是一个很难的问题。”他表示。
周鸿祎对《环球时报》表示,他对目前中美在AI上的差距并不用极,毕竟Transformer模型、Sora等实质上都是软件,这种差距是可以在一到两年旁边追上的。此外,也不须要非得等到全面遇上GPT4或Sora才能发展运用。
在谈及Sora对天下的影响和运用前景时,周鸿祎表示,Sora最让他感到震荡的一点是,产生视频只是它的一个“副产品”——在产生视频的过程中,Sora须要学习很多视频材料,它学到的不仅是如何绘出图案,更主要的是,它必须理解到现实天下很多元素间的互动关系。
“有人跟我辩论,画图软件也能画出一只狗在雪地上,但问题是,画出静止的狗和雪不须要节制知识,只要照着图像画就可以。但要想呈现出狗在雪地上撒欢,雪还在掉落,是松软的性子,没有对现实天下知识的学习和积累是做不到的。”他阐明道。
“这意味着Sora让人离AGI(通用人工智能)又近了一步。”周鸿祎对《环球时报》表示,“GPT实际上办理了机器和人之间相互理解和交互的问题,这是占领了第一个难关,但它对这个天下的很多规律并不知道:比如我们要让一个机器人去冰箱里拿西红柿再炒鸡蛋,演习起来会很难,由于它须要知道西红柿是摔不破的,而鸡蛋一摔就破,它还要知道要怎么磕鸡蛋,它必须像人类一样见过,才能知道。我认为这可能是OpenAI在研发Sora时无意中做到的。它实际上通过这种演习方法,让机器能够和天下互动。”
他认为,这意味着Sora未来可能运用于机器人和无人驾驶领域,由于它对真实天下的交互有了感知的能力。
在谈及中国AI在2024年的发展前景时,周鸿祎对《环球时报》表示,2024年该当是中国AI的“运用之年”,相信今年在许多企业的垂直领域,大模型将大有可为。“大模型未来该当要产生一场工业革命,大模型必须跟随企业进入百行千业,和很多企业的业务流程和产品功能相结合。”
“比如,我们现在要做一个能超过GPT4的通用的大模型可能比较难,但GPT4是‘啥都懂,但不专’。如果我们能在某一个业务领域,有独特的业务数据,在一个垂直领域把大模型演习得很好,而且把大模型和企业很多业务工具结合在一起,这样的大模型就不仅有脑筋,还有独特的知识,乃至手和脚了。”他表示,中国在一些垂直领域的大模型超过GPT4,是完备有可能的。
有不雅观点认为,中国大模型的开拓须要对内容安全和监管投入巨大精力,这是目前中国AI发展的一大寻衅。对此,周鸿祎认为,全天下的大模型都面临安全寻衅,尤其是如何担保大模型可信、可控、可靠的问题。
“大模型可以成为年夜大好人的帮手,也可以成为坏人的帮手。比如过去你得懂编程才能做网络攻击,现在你可以和大模型对话,给它‘小费’,它能帮你很勤奋地干活,乃至与世浮沉。”他举例称,再比如Sora可以产生任何视频,这些视比年夜到可以用来干预美国大选、成为影响国家安全的武器,小到可以用来诱骗,其蕴含的危险性实在很大。当人工智能技能的发展已经走在法律前面的时候,全天下都在考虑如何对人工智能进行有效监管,如何防止它作歹或被利用,这目前也是全天下的难题。
“我不认为监管对人工智能的进步带来妨碍。相反,如果没有任何监管,对各大互联网做出的各种人工智能工具,末了年夜大好人不一定能很及时地用上,缅北的诱骗分子可能倒先用上了,听说他们对新技能的渴望和热爱不亚于我们的高科技公司。”他对《环球时报》开玩笑地说道。他表示,合理的监管应该能够对人工智能的发展带来正向推动浸染,而不能一概认为是束缚。
环球时报-环球网宣布 白云怡 刘彩玉 陈青青