中新社北京7月21日电 ( 刘育英)在本周北京举行的2023中国互联网大会上,以ChatGPT为代表的人工智能(AI)带来若何的风险,以及如何管控这些风险,成为与会者热议的话题。
对付AI的发展前景,北京智源人工智能研究院院长、北京大学打算机学院教授黄铁军表示,本日ChatGPT有强大的智能,影响深远,未来3年,除措辞外,大模型正在迅速扩展视觉、听觉、具身、行动等通用智能,影响将更大。
黄铁军预测,未来10年,智力革命已经打响,就像工业革命解放体力,就像电力革命办理能源流利,全新生态将构建,开源开放生态终将胜利。ChatGPT是数据驱动的静态智能,未来20年是时空环境驱动的具身智能,智能载体将是类脑的脉冲神经网络,有望像生物大脑一样呈现出更强的智能。
由于大措辞模型的智能“呈现”,科学家尚不可阐明其机理,黄铁军认为,“只要AI超过人类,人类想进行管控是不可能的”,因此不少业界专家反对演习GPT-5。
北京市通信管理局副局长王晖认为,人工智能在赋能家当过程中,带来的风险寻衅有数据安全问题、算法安全问题、运用安全问题和行业安全问题。
中国电信集团网络和信息安全管理部总经理谷红勋表示,随着AI尤其大模型的广泛运用,网络攻击、数据透露等风险日益凸显,过度采集、歧视性算法,滥用深度假造等问题可能会带来影响社会经济运行的严重问题。
AI风险问题已经引起国际社会的关注。据媒体宣布,当地韶光7月21日,美国七家领先的人工智能公司,包括亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI承诺接管白宫哀求,帮助实现人工智能技能安全、可靠和透明的发展。
近日,联合国安理会首次就人工智能问题举行会议,来自15个成员国的外交官和人工智能领域的专家参与了这次会议,中方提出了五项原则。
大模型在中国得到快速发展。根据5月份发布的《中国人工智能大模型舆图研究报告》,中国10亿参数规模以上的大模型已经发布79个,研发的大模型数量排名环球第二,仅次于美国。
中国互联网协会常务副秘书长陈家春表示,中国大模型发展生动且快速,详细表现为打算能力不断提高、数据量不断增加、运用处景不断拓展以及研究方向不断深入。
中国从监管层抵家当界,都高度关注戒备AI风险方面并做出探索。7月13日,中国出台了首份天生式人工智能监管发展文件《天生式人工智能做事管理暂行办法》,提出坚持发展和安全并重、促进创新和依法管理相结合的原则。
奇安信集团副总裁张卓接管采访时表示,从《办法》可以看出,数据安全和隐私保护贯穿于天生式人工智能数据的标注、模型预演习、模型演习、供应做事等各个环节,避免了监管盲区导致的安全风险。
中国海内启明星辰、天融信、深信服等公司考试测验把大措辞模型用于网络安全。有些公司专门演习网络安全领域垂直的大模型,有些公司把大措辞模型用于产品形态中。
如何管控大模型带来的风险现在还没有答案。“人工智能面临失落控风险,但不用它是不可能的,如何掌握AI的利用,确实是一个问题。”国家打算机网络入侵戒备中央主任张玉清表示。
黄铁军表示,AI越来越强,风险进步神速。如何构建安全的AI,现在还没有完全准确的答案。面对AI越来越强的智能程度,人类面临全新的寻衅。(完)