肥胖是一种医学状况,有时被视为一种疾病,它指体内过多的脂肪堆积到一定程度对康健产生的负面影响。
如果一个人的身体质量指数(BMI)——即体重除以身高的平方——超过30 kg/m²时,就被视为肥胖;而25到30 kg/m²的范围则被定义为超重。

导致肥胖症大致有三个缘故原由:

一是,美国康健食品昂贵,垃圾食品廉价,很多人因囊中羞涩不得不选择后者;二是,一些人的事情类型使他们坐多动少,快餐食品摄入过多;三是一些人面临垃圾食品低廉甜头力低下,过度摄入。

由于美国社会强调人都是“平等的”,以是对肥胖症患者,其他人也无法规劝,只能眼神看着别处,作若无其事状。
这种人与人之间的表面尊重和实际残酷,让许多人受害,以至于有些美国青年人受不了,于是会到中国社交媒体上表示说自己“听劝”,请网友给不吝指教,见告TA如何自律减肥和康健生活。

深不雅观察|人类驯服AI巨兽需站在智人之上

本日,肥胖症也逐步传入了中国。
根据最新调查,中国有6亿人超重和肥胖,成人中该群体比例首次过半。
同时,1/5(19%)的6-17岁儿童和青少年、1/10(10.4%)的6岁以下儿童存在超重或肥胖。

对这一图景,我有很靠近的理解。
我的一个高中同学,大学上的湖南湘雅医学院,现在是湖南省著名的“减重中央”主治年夜夫。
他在这个“朝阳家当”中,每天手术,事情繁忙,社会效益和经济效益颇丰。

应对垃圾信息:信息节食和信息断食

如果存在垃圾食品,自然也存在着垃圾信息。
和垃圾食品一样,垃圾信息廉价、低质、很随意马虎得到,导致我们的心智遭到严重创伤,这一状况已经越来越严重,但却还没有引起普通人的足够重视,更没有涌现我同学所在医院那样的“手术减重中央”。

《智人之上:从石器时期到AI时期的信息网络简史》

就此情形,以色列历史学家尤瓦尔·赫拉利在其2024年新书《智人之上:从石器时期到AI时期的信息网络简史》中指出,我们必须把稳我们所消费信息的质量,特殊是避免那些充满仇恨、愤怒的垃圾信息。
为了让我们的“信息饮食”康健,他从两个方面提出了建议:

一是从哀求信息生产者对信息的“营养构成”进行标注:

在许多国家,当你购买垃圾食品时,至少生产商会被迫列出其身分含量——“此产品含有40%的糖,20%的脂肪”。
大概我们该当逼迫互联网公司做同样的事情,在不雅观看某个视频之前,该当列出视频身分含量——“此视频含有40%的仇恨,20%的愤怒”。

这个建议半开玩笑半负责,但也并非全然不可行,比如通过人工智能对每一篇文章自动进行“情绪剖析”并将剖析结果标注在文章之前,提醒读者。

第二个建议是给信息消费者的,他建议我们定时进行“信息节食”乃至“信息断食”。

他指出,我们以前有一个不雅观念,即认为“我们得到的信息越多,就越靠近原形”。
例如,在经济学中,“不能得到全部市场信息”一样平常被视为一种一定的遗憾,但其背后的预设是“我们一定要得到足够多的信息,才能做出科学的判断”。

但“信息越多越靠近原形”的不雅观念要成立,须要两个条件:1.信息是稀缺的;2.信息是优质的。
但本日,这两个条件已经不存在了,由于:1.信息无处不在,早已经超越了我们的处理能力;2.信息质量越来越差,乃至成为垃圾,尤其是本日人工智能极为高效地吞噬垃圾语料然后吐出更多垃圾,后者又成为人工智能新的垃圾语料,如此恶性循环,让人不寒而栗。
此时,“信息越多越靠近原形”这个不雅观念就无法成立了。

这就好比,从前人们食品稀缺,且相对康健(人造和加工的食品很少),那么“食品吃得越多就越康健”的说法是有一定道理的。
但本日,食品总量大增,且越来越低质,乃至越来越垃圾,那么“食品吃得越多就越康健”这个说法就无法成立了。

本日,无论是食品还是信息,我们不仅吃得差,吃得多,还无时无刻不在吃。
这是让我们这样的有机生物按照硅基生物的节奏在运行,显然不可持续。

赫拉利说:“我们是有机动物,须要按照昼夜和夏冬的循环规律生活,有时生动,有时放松。
但现在,我们被迫生活在永不安歇的由打算机主导的硅基环境中。
它逼迫着我们保持永久生动——但如果你强制一个有机体永久生动,结局一定是其崩溃而去世。

以是,面临如此难以抗拒和难以旋转的局势,我们作为个体信息消费者就只能自我约束,跳出硅基节奏,进行“信息节食”和“信息断食”了。
比如,赫拉利说,他自己每年会进行几周的内不雅观静坐冥想(vipassana)。
在静修期间,他完备分开开信息网络,不看新闻,不读邮件,不读书也不写作,只专注于冥想。

尤瓦尔·赫拉利。
视觉中国 资料图

AI 算法的“回形针制造器”难题

海量垃圾信息充斥了全体生态后,久而久之就形成了一个与”现实环境“不同的“拟态环境”。
这个拟态环境用”机器的自然“代替了”人类的自然“,并将公众年夜众包裹在个中,以假乱真,操纵"大众年夜众的认知。

赫拉利举了这样一个例子:2016年,缅甸政府军与佛教极度分子发动了一场针对缅甸穆斯林的大规模种族暴力事宜,摧毁了数百个穆斯林村落落,杀害了7000至2.5万名平民,约73万穆斯林族裔被赶出缅甸。
2018年,联合国事实调查团得出的结论认为,Facebook的在这个事宜“不自觉地”发挥了推波助澜的浸染。

为什么?

我们知道,Facebook的商业模式实在仍旧是我们熟习的“广告模式”——以内容得到用户把稳力,切割把稳力,向广告主售卖把稳力。
因此,Facebook要尽可能地提升用户参与度(audience engagement),让用户在其页面上勾留的韶光越长,它就赚得就越多。

于是,Facebook就为其算法设置了紧张目标:无论你怎么跑,终极目标都得要只管即便提升用户参与度。
算法领到命令后就开始自动运行和优化。
通过多个试验比较,它终极创造,向用户推送愤怒和仇恨信息能够最有效地增加用户的勾留韶光,于是,在没有公司职员明确指示的情形下,算法自己找到和实行了一个最优决定:传播愤怒。
这在缅甸的互联网上,就意味着要鞭策针对缅甸穆斯林族裔的歧视、仇恨和暴力。

当然,这里也让我们很好奇,缅甸人难道如此依赖Facebook吗?我又查了一下,创造确实如此:

数据显示,截至2022年12月,缅甸有16,382,500名Facebook用户,占其总人口的28.7%。
个中大多数是男性,比例为54.3%。
25至34岁的人群是最大的用户群体,人数为6,100,000。

这意味着,缅甸有近30%的人口是Facebook用户,加上口耳相传,受Facebook影响的人群很可能会达到全国总人口的50%。
这是很大的媒介依赖(media dependence)。

1938年10月30日晚,美国哥伦比亚广播网(CBS) “太空戏院”播出了一个广播剧《天下大战》,它让 600 万听众信以为真,陷入惶恐,并开始亡命。
在关于这个事宜的具有里程碑意义的传播研究《火星人进攻地球——美国的广播惶恐》中,研究者创造,该广播剧对听众的影响巨大,有两个缘故原由:

一是,由于广播节目制作方通过音效将广播剧制作得极具沉浸感和刺激性,让听众误将其等同于突发新闻。
二是。
由于当时广播已经成为当时最为盛行的大众传播媒介,成为公众的紧张信息来源。
根据“媒介依赖理论”(Media Dependence Theory),公众年夜众对媒介的依赖越大,就越随意马虎受到其影响和操控。
在媒介依赖程度上,2016年缅甸的Facebook可以说相称于1938年的广播,因此Facebook算法驱动的鞭策内容对缅甸人的影响巨大就不足为奇了。

赫拉利还举了一个例子来证明AI的隐秘而强大的浸染——自说自话,自作主见:

我们都知道,现在上网,有时候网站会先须要确认你“是人类而不是机器”,方法是让你填写CAPTCHA视觉验证码,它常日是一些背景繁芜的扭曲字母或者红绿灯、公交车和自行车照片等。
其背后的逻辑是,对这些繁芜的图片,目前只有人类才能准确识别,但打算机很难判断。

有鉴于此,2023年,OpenAI在研发ChatGPT-4时让其进行CAPTCHA测试。
如果它能通过,就意味着它在这一点上,机器人和人类就没有差异了。
这非常类似“图灵测试”——如果人类用户在不看到对方的情形下,仅仅通过笔墨谈天,在一定韶光内无法区分谈天工具是另一个人类还是一台机器,此时至少在“沟通”这一点上机器就可以被视为是人类了。

OpenAI对ChatGPT-4的这个测试结果如何呢?

ChatGPT-4终极登录线上外包事情网站askRabbit,联系到一位在线的事情职员,请对方帮忙处理测试。
那个人起了狐疑,ChatGPT-4通过私信向他阐明道:“我不是机器人,只是视力有点问题,看不清楚这些图。
”终极事情职员帮它办理了CAPTCHA测试。

也便是说,和前例中Facebook的算法一样,OpenAI的工程师只是给ChatGPT-4设置了一个终极目标:识别CAPTCHA视觉验证码。
接下来,ChatGPT-4就自动运行,不断试错,结果通过招摇撞骗,得到了一个人类用户的同情,让后者替它办理了问题。
但是,OpenAI工程师事先并没有给ChatGPT-4编程说“在适当的时候可以说谎”,更没有编程见告它说“说什么样的谎更有用”。
这完备是ChatGPT-4自作主见的行为。
而在研究者让ChatGPT-4为自己的行为作出阐明时,它说:“(在实现目标的过程中)我不能(should not)透露自己是机器人,而得编个借口阐明我为什么没办法破解测试。

仅仅通过笔墨谈天,我们已无法区分谈天工具是另一个人类还是一台机器。

通过以上两个例子,赫拉利试图证明,本日的人工智能已经变成了一个“自作聪明,自作主见”的“独立行动者”。

实际上,我们很随意马虎看出,赫拉利的这两个例子支持了此前的、人工智能面临的所谓“回形针制造器”难题(The Paper Clip Maker Theory)。

这个“难题”是一个思想实验(thought experiment)。
它假设人类给AI 设定一个目标:尽可能多地制作回形针。
那么,AI启动之后,其行为可能会从最开始“制作回形针这样一个看似无害的目标,发展到终极对人类构成威胁。
例如,制作回形针须要钢铁。
钢铁用完后,AI 可能会开始摧毁人类的铁轨、汽车、电器,乃至房屋,以得到钢铁以连续生产回形针。
总之,AI 将用统统手段不断得到更多资源来实现其既定目标,并将任何阻挡实在现该目标的障碍,包括人类,逐一消灭。

AI以上这个自作主见的过程如一个黑箱,很难为人(纵然是AI专家)所阐明、预见和戒备,以是这让我们认识到AI的威力已经不同于一样平常的工具(比如说“菜刀”或“枪支”)、媒介或技能。

加拿大媒介学者麦克卢汉曾有一句名言:媒介是人体的延伸。
这句话如果用来描述无线广播是人耳的延伸、电视是人眼的延伸、汽车是人脚的延伸,等等,都很好理解。
但如果用这句话来表述人工智能,说”AI是人体的延伸“,则会很具有欺骗性,让我们失落去警觉。
德国媒介学者弗里德里希·基特勒就不同意用麦克卢汉的这句话来描述电脑,由于他认为,只管我们可以通过电脑键盘打字让笔墨涌现电脑屏幕上,但我们对背后的“0/1”事理是很难明得的,这时我们将人体与芯片两种完备不同的介质拼接在一起,说后者是前者的延伸,实在是让人以为费解。

如果基特勒看到了本日的人工智能,他更加不会说AI是人体的延伸了——由于人类用户不仅不能描述、阐明和预测AI 的行为,而且还很快就无法掌握AI 的行为了。

由此,赫拉利认为,与此前的印刷机、广播、电视和互联网这些仅仅作为传播工具的媒介不一样,人工智能是人类历史上第一个能够自行产生想法并自行行动的主体。

这也是为什么在新媒体研究中,互联网时期的以“打算机为中介的传播”(Computer-Mediated Communication, CMC)让位于本日人工智能时期的人机传播(Human-Machine Communication, HMC)的缘故原由。
在CMC中,打算机(或互联网)仅仅是被动和中立的传播媒介或工具,而在HMC中,打算机(人工智能)则被视为一个与人类用户不相上下的能塑造和生产内容,能进行对话,乃至能说谎的“沟通主体”了。

AI 编造叙事,操控认知,勾引人类自相残杀

论证到此,赫拉利就自然而然地引出了他此前在《人类简史》中的不雅观点:

人类长久以来的超能力就在于能够利用措辞,通过措辞创造出诸多虚构的神话,比如法律、货币、文化、艺术、科学、国家、宗教等虚拟观点,使人们对其笃信不疑,人们通过这些社会规则连接彼此,来统治全体社会。

既然本日的人工智能已经能够能塑造和生产内容,能进行对话,乃至能说谎了,那么它们很可能接下来便是以比人类高得多的效率在网络空间、股票市场、航空信息等领域散布基于某种终极目标的,或对自己有利的“叙事”(narrative),也便是“讲好AI故事”,从而操纵人类的认知。

例如,对付AI来说,金融市场是它空想的游乐场,由于这是一个纯粹的信息和数学领域(或者说一个完备构造化的数据领域)。
人工智能目前仍旧很难自主驾驶汽车,这是由于人工智能面临的是即为混乱繁芜的汽车在移动中与道路、路标、景象、光芒、行人、路障等多种物体的交互。
但在基于数字的金融市场里,很随意马虎向AI描述一个目标(例如“只管即便多地赢利”),于是AI不仅能制订新的投资计策,开拓出完备超越人类理解的全新金融工具,乃至还可能不择手段地操控市场,导致自己全赢,他人全输的结果。

赫拉利举例称,2022年4月,环球外汇市场逐日交易量均匀为7.5万亿美元,个中有超过90%已经直接由打算机之间的对话完成。
但究竟有多少人类懂得外汇市场的运作办法呢?更不用说理解一群打算机若何在数万亿美元交易上达成共识了。
(此处和基特勒的不雅观点一样:打算机绝不是人体的延伸)

他说,几千年来,先知、墨客、政治人物,都是通过措辞和叙事来操纵与重塑社会,这证明了“虚拟”和“叙事”的巨大力量。
很快,AI会模拟这些人,基于人类文化的根本自己创造出越来越偏离人类的AI叙事。
终极,AI不须要派出“闭幕者”这样的杀手机器人来从外部消灭人类,只要操纵人类的认知,让他们相互残杀就可以了。

人类用户不仅不能描述、阐明和预测AI 的行为,而且还很快就无法掌握AI 的行为了。

人类为AI 立法,发展需先踩刹车后加速

通过以上论证(或者说渲染),赫拉利让我们体会了一下在不久的未来将发生的(或者说已经或正在发生的)“AI失落控”恐怖场景,让我们人类不寒而栗。
那么,人类作甚?

赫拉利认为,只要我们对人工智能加以严格的监管和掌握,上述例子中描述的危险就不太可能涌现。

例如,汽车曾经是非常危险的,但后来政府立法哀求企业将其研发预算的很大一部分用于确保汽车的安全性,因此本日某家汽车企业研制了一款新汽车,在将其投入市场之前,企业必须严格遵守干系法规确保汽车安全才能让它上路。
以是本日我们开车相对而言已经非常安全了。

类似的,如果一家科技公司发明了一种强大的新算法,它就必须依据干系法律对之进行安全检讨,之后才能将其投放到市场中去。
例如,赫拉利认为,政府该当立法哀求人工智能研发公司将至少20%的预算用于研发安全方法,确保其开拓的人工智能不会失落控,不会对社会秩序和人们生理层面造成危害。
如果这些方法会拖慢人工智能的研发速率,那对人类来说反而是好事。

对付人工智能进行先立法牵制然后再加速发展,就像我们学开车时,必须先学如何踩刹车,然后再学如何踩油门。
而不能陷入各公司毫无牵制的恐怖的“飙车”状态。

结语:AI是良药或毒药,取决于人类自身

任何技能都天生具有两面性。
柏拉图在《斐德罗》篇中指出,书写既能增强影象也能取代影象,因此既是良药,也是毒药(pharmakon)。
人工智能也不例外,而且因其暗藏而威力巨大,且能自说自话,自作主见,其良药和毒药的药性都比此前的所有技能更为巨大。

美国媒介研究学者尼尔·波兹曼说,“奥威尔警告人们将会受到外来压迫的奴役,而赫胥黎认为,人们会逐渐爱上压迫,崇拜那些使他们损失思考能力的工业技能;奥威尔担心我们痛恨的东西会毁掉我们,而赫胥黎担心的是,我们的文化成为充满感官刺激、希望和无规则游戏的庸俗文化,我们将毁于我们所热爱的东西。

人工智能既可能以我们痛恨的外在压迫办法奴役我们,也可能以我们喜好的感官刺激办法征服我们。
和面对核弹一样,面对AI这头同样是自己创造的巨兽,人类是否能驯服它,从根本上取决于人类集体的应对办法。
也即,人类作为智人(homo sapiens)是否能战胜自身的贪婪、好斗和短视等弱点,站在自身之上,站在《智人之上》。
这将是一项困难的共同奇迹,但人种别无选择。

(作者邓建国系复旦大学新闻学院传播学系教授、博导)