原文作者:Mohamed Baioumy & Alex Cheema

原文来源:Github

编译:bewater

导言

人工智能(AI)将引发前所未有的社会变革。

AI x Crypto 申报案例研究成长瓶颈技能寻衅

随着AI的快速发展以及在各行各业创造出的新可能性,它将不可避免地引发大范围的经济混乱。
加密行业也不例外。
我们在 2024 年的第一周就不雅观察到了三次重大的 DeFi 攻击,DeFi协议中760亿美元面临风险。
利用AI,我们可以检讨智能合约的安全漏洞,并将基于AI的安全层集成到区块链中。

AI的局限性在于坏人可以滥用强大的模型,恶意深度假造的传播就证明了这一点。
值得光彩的是,密码学的各种进步将为AI模型引入新的能力,极大丰富AI行业的同时办理一些严重的毛病。

AI和加密领域(Crypto)的领悟将催生无数值得关注的项目。
个中一些项目将为上述问题供应办理方案,而另一些项目则会以浅近的办法将AI和Crypto结合起来,但却不会带来真正的好处。

在本报告中,我们将先容观点框架,详细的实例和见地,帮助您理解这一领域的过去、现在和未来。

2.1 什么是AI x Crypto项目?

让我们回顾一些同时利用加密技能和人工智能技能项目的例子,然后谈论它们是否真正属于AI x Crypto项目。

案例研究:PrivaseaPrivasea利用了全同态加密(FHE)技能来演习处理加密数据的AI模型,确保输入的隐私性。
这一创新支持了类似ChatGPT的模型可以处理加密指令,也意味着做事供应商永久不会看到未加密的内容。
系统处理这些加密输入,并天生只有用户能够解密的加密输出。
这种方法可以保护用户数据不被透露,对付金融等敏感领域尤为关键。
在这些行业中,防止潜在的信息透露至关主要。
通过实现与AI的安全加密交互,Privasea办理了AI运用中的重大隐私和安全问题。

这个案例展示了加密技能如何帮助和改进一个AI产品——利用密码学方法来改变AI的演习办法。
这导致了一个仅利用AI技能无法实现的产品:一个可以接管加密指令的模型。

图1:利用Crypto对AI栈进行内部变动,可产生新的功能。
例如,FHE 许可我们利用加密指令。

案例研究:DorsaDorsa是一家区块链安全领域的初创公司。
他们利用AI模型对智能合约进行审计和监控。
他们开拓了多种工具,包括强化学习agents,以全面测试智能合约的安全性。
Dorsa开拓的工具可以为开拓和审计职员供应帮助。
因此,Dorsa利用AI模型来提高智能合约的安全性和可靠性。

在这种情形下,人工智能技能被用来改进加密领域产品——这与我们之前谈论的情形刚好相反。
Dorsa供应了一种AI模型,使创建安全智能合约的过程更快、更便宜。
虽然它是链下的,但AI模型的利用仍旧有助于加密项目:智能合约常日是加密项目办理方案的核心。

Dorsa的AI能力可以创造人类忘却检讨的漏洞,从而防止未来的黑客攻击。
然而,这个分外的例子并没有利用AI使加密产品具备以前做不到的能力,即编写安全的智能合约。
Dorsa的AI只是让这个过程变得更好、更快。
不过,这是AI技能(模型)改进加密产品(智能合约)的一个例子。

案例研究 LoverGPTLoverGPT是一款Web2 AI女友运用。
他们并不会审查袒露的谈天内容或图像,因此可能会面临无法接入Visa和Mastercard支付办法的问题。
为理解决这个问题,他们开始接管加密货币的支付办法。
然而产品的其他部分并没有利用任何区块链技能。

LoverGPT并不是Crypto x AI的一个例子。
我们已经确定了AI可以帮助改进加密技能栈,反之亦然,这可以通过Privasea和Dorsa的例子来解释。
然而,在LoverGPT的例子中,加密部分和AI部分并没有相互浸染,它们只是在产品中共存。
要将某个项目视为AI x Crypto项目,仅仅让AI和Crypto为同一个产品或办理方案做出贡献是不足的——这些技能必须相互交织合营以产生办理方案。

AI和加密技能的结合每每流于表面,没有实际代价。

加密技能和人工智能技能可以直接结合以产生更好办理方案的技能。
将它们结合利用可以使彼此在整体项目中更好地发挥浸染。
只有涉及这些技能之间协同互助的项目才被分类为AI X Crypto项目 。

2.2 AI与Crypto如何相互促进把稳:在本报告中,我们利用“加密”一词来指代区块链技能和加密办理方案。
零知识证明(ZKP)、加密署名和区块链账本都是“加密”的示例。
我们将在适当的部分澄清我们所指的加密的详细方面。

图2:AI和crypto在3种不同产品中的结合办法

让我们回顾一下之前的案例研究。
在Privasea中,FHE(即加密技能)用于天生能够接管加密输入的AI模型。
因此,我们正在利用crypto(加密)办理方案来改进AI的演习过程,因此crypto正在帮助AI。
在Dorsa中,AI模型被用于审查智能合约安全性。
AI办理方案被用来改进加密产品,因此,AI正在帮助crypto。
在评估AI X Crypto交叉点的项目时,这给我们带来了一个主要的维度:是crypto被用来帮助AI还是AI被用来帮助crypto?

这个大略的问题可以帮助我们创造当前用例的主要方面,即要办理的关键问题是什么?在Dorsa的案例中,我们期望的结果是一个安全的智能合约。
这可以由闇练的开拓者来完成,Dorsa恰好利用AI提高了这一过程的效率。
不过,从根本上说,我们只关心智能合约的安全性。
一旦明确了关键问题,我们就能确定是AI在帮助crypto,还是crypto在帮助AI。
在某些情形下,两者之间并不存在故意义的交互(例如LoverGPT)。

下表供应了每个种别中的几个例子。

1. FHE以保护隐私的办法演习AI模型1.利用AI模型来保护、审计和监控智能合约2. 用于AI模型演习的联邦学习2.AI 模型用于高效搜索链上数据3. 零知识证明用于可验证推理3.用于创建数据剖析仪表板的 LLM4. 网络和标注数据集的代币勉励机制4.基于意图的交易5. AI agent支付轨道5.为链上游戏定制bots6. 分布式GPU网络6.管理DAO的AI agents表 1:Crypto与AI如何相结合

您可以在附录中找到 150 多个项目的概况。
如果我们由遗漏的内容,或者您有任何反馈见地,请联系我们!

总结:AI和Crypto是相辅相成的技能。
要评估任何产品,关键是要理解是AI在帮助Crypto,还是Crypto在帮助AI。

图 3:差异解释

2.3 产品定位

让我们举一个Crypto帮助AI的例子。
当组成AI的特定技能凑集发生变革时,AI办理方案作为一个整体的能力也会发生变革。
这种技能凑集被称为栈(Stack)。
AI栈包括构成AI各个方面的数学思想和算法。
用于处理演习数据、演习模型以及模型推理的详细技能都是栈的一部分。

栈作为一个整体,具有任何单独部分都不具备的属性和能力。
各部分之间的交互,就像钟表中的齿轮一样,决定着栈的高层次行为。

在栈中,各个部分之间有着深刻的联系——详细技能的组合办法决定了栈的功能。
因此,改变栈就即是改变了全体技能所能实现的目标。
在栈中引入新技能可以创造新的技能可能性——以太坊在其加密栈中添加了新技能,使智能合约成为可能。
同样,对栈的改变也能让开发者绕过以前被认为是技能固有的问题——Polygon对以太坊加密栈所做的改变使他们能够将交易用度降落到以前认为不可能达到的水平。

当一种技能在另一种技能的栈中利用时,这代表了技能之间更深入的集成,我们称之为 “内部集成”。
如果两种技能一起利用,相互支持,但组成每个栈的部分没有任何改变,那么这种集造诣是 “外部 ”集成。
内部支持:加密技能可用于对AI栈进行内部变动,例如改变演习模型的技能手段。
我们可以在人工智能栈中引入FHE技能,Privasea便是例子,在AI栈中直接内置了一个加密的部分,形成了一个经由修正的AI栈。
外部支持:加密技能用于支持基于AI的功能,而无需对AI栈进行修正。
Bittensor便是一个例子,它勉励用户贡献数据——这些数据可用于演习AI模型。
在这种情形下,模型的演习或利用办法没有任何改变;AI栈也没有发生任何变革。
不过,在 Bittensor网络中,利用经济勉励方法有助于AI栈更好地实现其目的。

图 4:前面谈论的解释

同样,AI也可以通过这两种办法帮助Crypto:

内部支持:AI技能用于crypto栈内部。
AI位于链上,直接与crypto栈内的部分连接。
举例来说,链上的AI agents管理着一个 DAO。
这种AI不但是帮忙cypto栈。
它是技能栈中不可分割的一部分,深深嵌入技能栈中,使 DAO 正常运行。
外部支持:AI为crypto栈供应外部支持。
AI用于支持Crypto栈,而不对其进行内部变动。
Dorsa等平台利用AI模型来确保智能合约的安全。
AI在链外,是一种外部工具,用于使编写安全智能合约的过程更快以及更便宜。

基于上述差异,我们现在可以将原始框架扩展到 2x2 矩阵。
AI可以通过两种办法帮助Crypto:栈的内部和外部。
这同样适用于Crypto帮助AI。
这就为我们供应了一个框架的 4 个支柱,如下图所示。

图 5:这是升级的模型,包含了内部和外部支持的差异

对任何AI x Crypto项目进行剖析的第一阶段便是确定它属于哪个种别。

2.4 确定瓶颈

与外部支持比较,以深度技能整合为特点的内部支持每每有更多的技能难度。
例如,如果我们想通过引入FHE或零知识证明(ZKPs)来修正AI栈,我们就须要在密码学和AI方面都有相称专业知识的技能职员。
但很少有人属于这一交叉领域。
这些公司包括Modulus

(opens new window)、EZKL (opens new window)、Zama(opens new window)和Privasea (opens new window)。

因此,这些公司须要大量资金和罕有人才来推进其办理方案。
让用户在智能合约中集成人工智能同样须要深入的知识;Ritual

(opens new window)和Ora (opens new window)等公司必须办理繁芜的工程问题。

反之,外部支持也有瓶颈,但它们常日涉及的技能繁芜性较低。
例如,为AI agents添加加密货币支付功能并不须要我们对模型有太大修正。
实现起来相对随意马虎。
虽然对付AI工程师来说,构建一个ChatGPT插件,让 ChatGPT从DeFi LLama (opens new window)

网页上获取统计数据在技能上并不繁芜,但很少有AI工程师是crypto社区的成员。
虽然这项任务在技能上并不繁芜,但能够利用这些工具的AI工程师却寥寥无几,而且很多人都不知道这些可能性。

crypto在内部帮助 AI须要办理基本深层技能寻衅,包括扩展 ZKML和扩展同态加密crypto从外部帮助 AI良好的经济模型(例如如何勉励数据网络,或褒奖为AI网络事情贡献 GPU 的用户)AI在内部帮助crypto工程寻衅。
相对付crypto栈而言,AI工具已经成熟。
添加AI须要办理繁芜的工程问题AI为crypto供应外部帮助crypto领域AI人才稀缺

2.5 丈量效用

所有这四个种别中都会有好项目。

如果将人工智能集成到加密技能堆栈中,智能合约开拓者将能够访问链上的人工智能模型,从而增加可能性的数量,并有可能带来广泛的创新。
这同样适用于将加密整合到人工智能堆栈的情形——深度技能领悟将产生新的可能性。

图 6:在加密堆栈中加入人工智能,为开拓者供应新功能

在人工智能为加密供应外部帮助的情形下,人工智能技能的集成很可能会改进现有产品,同时产生较少的打破,引入较少的可能性。
例如,利用人工智能模型编写智能合约可能会比以前更快、更便宜,也可能会提高安全性,但不太可能产生以前不可能产生的智能合约。
这同样适用于加密技能从外部帮助人工智能——代币勉励可以用于人工智能堆栈,但这本身不太可能重新定义我们演习人工智能模型的办法。

总之,将一种技能整合到另一种技能栈中可能会产生新的功能,而利用技能栈之外的技能则可能会提高可用性和效率。

2.6 评估项目

我们可以根据特定项目所处的象限来估算其部分收益,由于技能之间的内部支持可以带来更大的回报,但估算一个项目经风险调度后的总收益则须要我们考虑更多的成分和风险。

须要考虑的一个成分是,所考虑的项目在Web2、Web3或两者的背景下是否都有用。
具有FHE功能的人工智能模型可用于替代不具有FHE功能的人工智能模型——引入FHE功能对两个领域都有用,在任何情形下,隐私都是有代价的。
不过,将人工智能模型集成到智能合约中只能在 Web3 环境中利用。

如前所述,人工智能和加密领域之间的技能整合是在项目内部还是外部进行的,也将决定项目上升潜力,涉及内部支持的项目每每会产生新的能力和更大的效率提升,而这是更有代价的。

我们还必须考虑这项技能成熟的韶光跨度,这将决定人们须要等待多永劫光才能得到回报。

对项目的投资。
要做到这一点,可以剖析当前的进展情形,并找出与项目干系的瓶颈问题(见第 2.4 节)。

图 7:一个假设的例子,解释与韶光跨度比较的潜在上升空间

2.7 理解繁芜产品

有些项目涉及我们所描述的四个类别的组合,而不仅仅是一个种别。
在这种情形下,与项目干系的风险和收益每每会成倍增加,项目履行的韶光跨度也会更长。

此外,您还必须考虑项目的整体性是否优于各部分的总和——一个项目如果什么都有,每每不敷以知足终极用户的需求。
重点突出的方法每每会产生精良的产品。

利用加密技能和人工智能的所有四种组合可以使项目更有代价,但条件是整体大于部分之和。

2.7.1 示例一:Flock.io

Flock.io

(opens new window)

许可在多个做事器之间 \公众分割 \"大众演习模型,任何一方都无法访问所有演习数据。
由于可以直接参与模型的演习,因此您可以利用自己的数据为模型做出贡献,而不会透露任何数据。
这有利于保护用户隐私。
随着人工智能堆栈(模型演习)的改变,这涉及到加密在内部帮助人工智能。

此外,他们还利用加密代币褒奖参与模型演习的职员,并利用智能合约对毁坏演习过程的职员进行经济惩罚。
这并不会改变演习模型所涉及的流程,底层技能保持不变,但各方在都须要遵照链上罚没机制。
这是加密技能从外部帮助人工智能的一个例子。

最主要的是,加密技能在内部帮助人工智能引入了一种新的能力:模型可以通过去中央化网络进行演习,同时保持数据的私密性。
然而,从外部帮助人工智能的加密货币并没有引入新的能力,由于代币只是用来勉励用户为网络做出贡献。
用户可以用法币得到补偿,而用加密货币勉励是一种更优解,可以提高系统的效率,但它并没有引入新的能力。

图 8(1):Flock.io 的示意图以及堆栈的变革情形,个中颜色的变革意味着内部发生了变革

2.7.2 示例二:洛克菲勒机器人

洛克菲勒机器人

(opens new window)

是一个在链上运行的交易机器人。
它利用人工智能来决定进行哪些交易,但由于人工智能模型本身并不在智能合约上运行,因此我们依赖于做事供应商为我们运行模型,然后见告智能合约人工智能的决定,并向智能合约证明他们没有说谎。
如果智能合约不检讨做事供应商是否说谎,做事供应商就可能代表我们进行有害的交易。
洛克菲勒机器人许可我们利用ZK证明向智能合约证明做事供应商没有撒谎。
在这里,ZK被用来改变人工智能堆栈。
人工智能堆栈须要采取ZK技能,否则我们就无法利用ZK来证明模型对智能合约的决定。

由于采取了ZK技能,由此产生的人工智能模型输出具有可验证性,可以从区块链上进行查询,这意味着该人工智能模型在加密堆栈内部利用。
在这种情形下,我们在智能合约中利用了人工智能模型,以公正的办法决定交易和价格。
如果没有人工智能,这是不可能实现的。

图 8(2):Flock.io 的示意图以及堆栈的变革情形,个中颜色的变革意味着内部发生了变革

值得穷究的问题3.1 加密领域与深度假造 (Deepfake) 启迪录\公众一台电脑就能造成这么大的毁坏......如果不理解一些基本的原形,我们该如何运作?- 谷歌前首席实行官埃里克-施密特(Eric Schmidt)致 Chainlink 联合创始人谢尔盖-纳扎罗夫(Sergey Nazarov)

1月23日,一条人工智能天生的语音信息谎称自己是拜登总统

(opens new window)

,劝阻民主党人不要在 2024 年初选中投票。
不到一周后,一名金融事情者因模拟其同事的深度假造视频通话,丢失了2500万美元。
与此同时,在X(前身为Twitter)上,人工智能假造的泰勒·斯威夫特(Taylor Swift)的露骨照片吸引了4500万次浏览,引发了广泛的愤怒。
这些事宜都发生在2024年的头两个月,它们只是深度假造在政治、金融和社交媒体领域产生的各种毁坏性影响的一个缩影。

3.1.1 它们是如何成为问题的?

假造图像并不是什么新鲜事。
1917年,The Strand杂志上刊登了一些被设计羽化女样子容貌的风雅剪纸照片;许多人认为这些照片是超自然力量存在的有力证据。

图 10:《科廷利仙子》照片之一。
福尔摩斯的创作者阿瑟-柯南-道尔爵士曾将这些假造图片作为灵异征象的证据

随着韶光的推移,造假变得越来越随意马虎,本钱也越来越低,从而大大提高了缺点信息的传播速率。
例如,在2004年美国总统大选期间,一张经由修改的照片虚假地显示民主党提名人约翰·克里(John Kerry)与简·方达(Jane Fonda)一起参加抗议活动,简-方达是一位颇具争议的美国活动家。
科廷利仙子须要精心支配,用硬纸板剪出儿童读物中的描摹图画,而这次假造则是用Photoshop完成的大略任务。

图 11:这张照片表明约翰·克里与简·方达在反越战集会上同台。
后来创造这是一张假造的照片,是用Photoshop将两张现有的图片合成的

不过,由于我们学会了如何辨别编辑痕迹,假照片带来的风险已经降落。
在“游客小哥 ”的案例中,业余爱好者能够通过不雅观察场景中不同物体的白平衡不一致来识别图片是否经由剪辑。
这是"大众年夜众对虚假信息认识提高的产物;人们已经学会把稳图片编辑的痕迹。
“Photoshoped”一词已成为通用术语:图像被修改的迹象已得到普遍认可,照片证据不再被视为不可修改的证据。

3.1.1.1 Deepfake 让造假更随意马虎、更便宜、更好

过去,假造证件很随意马虎被肉眼看破,但深度假造技能使制作险些与真实照片无异的图像变得大略而廉价。
例如,OnlyFake网站利用深度假造技能在几分钟内天生逼真的假身份证照片,只需15美元。
这些照片被用来绕过OKX(一家加密货币交易所)的反敲诈保障方法,即所谓的“理解你的客户\公众(KYC)。
在 OKX 的案例中,这些深度假造的ID骗过了他们的员工,而这些员工都受过识别修改图片和深度假造的培训。
这凸显出,纵然是专业人士,也不再可能通过肉眼创造基于深度假造的敲诈行为。

由于图像被深度假造,人们加强了对视频证据的依赖,但深度假造不久将严重毁坏视频证据(的可信度)。
德克萨斯大学达拉斯分校的一名研究职员利用免费的深度假造换脸工具,成功绕过了KYC供应商履行的身份验证功能。
这是一个巨大的进步——过去,要天生具有合格水平的视频既昂贵又耗时。

2019 年,有人须要花费两周韶光和552美元,才能制作出一段38秒的马克·扎克伯格深度假造视频,视频中还会涌现明显的视觉毛病。
如今,我们可以在几分钟内免费制作出逼真的deepfake视频。

图 12:OnlyFake面板,用于在几分钟内创建自己的假身份证

3.1.1.2 视频为何如此主要

在深度假造技能涌现之前,视频曾是可靠的证据。
与随意马虎假造的图像不同,视频在历史上一贯是难以假造的,因此在法庭上被公认为是可靠的证据。
这使得视频深度假造变得尤为危险。

与此同时,深度假造的涌现也可能导致对真实视频的否定,美国总统拜登的一段视频就被缺点地称为深度假造。
批评者以拜登眼睛一眨不眨和光芒差异为证据,这些说法已被推翻。
这就导致了一个问题——“深度假造”不仅让假的看起来像真的,也让真的看起来像假的,进一步模糊了真实与虚构之间的界线,增加了问责的难度。

我们仍旧相信视频,只管它们现在可以假造。

深度假造实现了大规模定向广告。
我们可能很快就会看到另一个YouTube,在这个版本中,所说的内容、所说的人以及所说的地点都是针对不雅观众个性化定制的。
一个早期的例子是Zomato确当地化广告,广告中演员赫里希克·罗尚(Hrithik Roshan)在不雅观众所在城市的热门餐馆点菜。
Zomato天生了不同的深度假造广告,根据不雅观众不同的GPS位置天生广告内容,先容不雅观众所在地的餐馆。

3.1.2 目前的办理方案有什么不敷?3.1.2.1 意识

现在的深度假造技能已经非常前辈,足以骗过演习有素的专家。
这使得黑客能够绕过身份验证(KYC/AML)程序,乃至人工审核。
这表明,我们无法用眼睛将深度假造与真实图像区分开来。
我们不能仅仅通过对图像持疑惑态度来戒备深度假造:我们须要更多的工具来应对深度假造的盛行。

3.1.2.2 平台

如果没有强大的社会压力,社交媒体平台并不愿意有效抑制深度假造。
例如,Meta禁止含有虚假音频的度假造视视频,但谢绝禁止纯捏造的视频内容。
他们违背了自己的监督委员会的建议,没有删除一段显示拜登总统抚摸孙女的深度假造视频,即纯属捏造的内容。

3.1.2.3 政策

我们须要制订法律,有效应对新型深度假造风险,同时又不限定问题较少的用场,如艺术或教诲领域,由于这些用场并不试图欺骗人们。
泰勒·斯威夫特(Taylor Swift)深度假造图片未经赞许而被传播等事宜,匆匆使立法者通过更严格的法律来打击此类深度假造行为。
针对此类案件,可能有必要在法律上强化在线审核程序,但禁止所有人工智能天生内容的发起引起了电影制作人和数字艺术家的警觉,他们担心这会不公道地限定他们的事情。
找到精确的平衡点是关键,否则那些合法的创意运用将被扼杀。

推动立法者提高演习强大模型的准入门槛,大型科技公司可以确保其人工智能垄断地位。
这可能会导致权力不可逆转地集中在少数公司手中——例如,涉及人工智能的第 14110号行政命令就建议对拥有大量打算能力的公司提出严格哀求。

图 13:美国副总统卡马拉-哈里斯(Kamala Harris)在美国总统乔-拜登(Joe Biden)签署美国首个人工智能行政命令时鼓掌。
2023 年 10 月 30 日,华盛顿特区

3.1.2.4 技能

直接在人工智能模型中建立防护栏以防止滥用是第一道防线,但这些防护栏不断被毁坏。
人工智能模型很难审查,由于我们不知如何利用现有低级工具来修正更高维度的行为。
此外,演习人工智能模型的公司可以利用履行防护栏作为借口,在其模型中引入不良审查和偏见。
这是有问题的,由于大型科技人工智能公司无需对公众年夜众意愿卖力——公司可以自由地影响其模型,而危害用户的利益。

纵然强大人工智能的创造权并未集中在不老实的公司手中,要想建立一个既有防护方法又中庸之道的人工智能可能仍旧是不可能的。
研究职员很难确定什么是滥用,因此很难以中立、平衡的办法处理用户要求的同时防止滥用。
如果我们无法定义滥用,彷佛就有必要降落戒备方法的严格程度,可能导致滥用再次发生。
因此,完备禁止滥用人工智能模型是不可能的。

一种办理方案是在恶意深度假造涌现后立即对其进行检测,而不是阻挡其产生。
但是,深度假造检测人工智能模型(如OpenAI支配的模型由于不准确,正在变得过期。
虽然深度赝品检测方法已经变得越来越繁芜,但制造深度赝品的技能却在以更快的速率变得越来越繁芜——深度假造检测器在技能武备竞赛中败下阵来。
这使得仅凭媒体很难识别深度假新闻。
人工智能已经足够前辈,可以制造出逼真到人工智能无法判断其准确性的假镜头。

水印技能能够在深层假造品上暗藏地打上标记,无论它们涌如今哪里,我们都能识别出来。
但是,深度假造品并不总是带有水印,由于水印必须是刻意添加的。
志愿将其假造图像标出而做出区分的公司(如OpenAI),水印是一个有效的方法。
但无论如何,水印都可以用大略易用的工具去除或假造,从而绕过任何基于水印的防深度假造办理方案。
水印也可能被意外删除:大多数社交媒体平台都会自动删除水印。

最盛行的深度假造水印技能是C2PA(由内容出处和真实性同盟提出)。
它旨在通过追踪媒体来源并将此信息存储在媒体元数据中来防止缺点信息。
该技能得到了Microsoft、Google和Adobe等公司的支持,因此C2PA很有可能会在全体内容供应链中推广,它比起其他同类技能更加受欢迎。

遗憾的是,C2PA也有自己的弱点。
由于C2PA会存储图像的完全编辑历史,并利用符合 C2PA标准的编辑软件中所掌握的加密密钥,对每次编辑进行验证,因此我们必须信赖这些编辑软件。
但是,人们很可能会由于有效的C2PA元数据而直接接管经由编辑的图像,而不会考虑是否信赖编辑链中的每一方。
因此,如果任何编辑软件遭到毁坏或能够进行恶意编辑,就有可能让其他人相信假造或恶意编辑的图像是真实的。

我们须要安全的硬件,否则确保 C2PA 安全的密钥就会被盗。

图 14:包含持续串编辑的符合C2PA标准元数据的图像示例。
每个编辑都由不同的可信方署名,但只有终极编辑的图像是公开的。
资料来源:真实照片与人工智能天生的艺术:新标准(C2PA)利用 PKI 显示图像的历史

此外,C2PA水印中包含的加密署名和元数据可以与特定用户或设备联系起来。
在某些情形下,C2PA元数据可以将您的相机拍摄的所有图像相互连接起来:如果我们知道某张图像来自某人的相机,我们就可以识别来自该相机的所有其他图像。
这可帮助举报人在发布照片时匿名化处理。

所有潜在的办理方案都将面临一系列独特的寻衅。
只管这些寻衅千差万别——包括社会意识的局限性、大型科技公司的毛病、监管政策的履行难度以及我们的技能局限性。

办理深度假造缺点信息的问题没有万全之策。

3.1.3 加密货币能办理这个问题吗?

开源的深度假造模型已经开始流传。
因此,有人可能会说,总有一些方法可以利用深度假造来滥用他人的肖像;纵然这种做法被定为犯罪,有人还是会选择天生不道德的深度假造内容。
不过,我们可以让恶意深度假造内容退出主流来办理这一问题。
我们可以防止人们认为深度假造的图片是真实的,且能够创建限定深度假造内容的平台。
本节将先容各种基于加密技能的办理方案,以办理恶意深度假造传播带来的误导问题,同时强调每种方法的局限性。

3.1.3.1 硬件认证

经由硬件认证的相机在拍摄每张照片时都会嵌入一个独特的证明,证明照片是由该相机拍摄的。
该证明由相机独占的不可复制、防修改芯片天生,确保图像的真实性。
音频和视频也可以利用类似的程序。

入侵软件的本钱更低,但入侵安全芯片的本钱却很高。

认证证明见告我们,图像是由真实相机拍摄的,这意味着我们常日可以相信这是真实物体的照片。
我们可以标记没有这种证明的图像。
但如果相机拍摄的是假造场景,而假造场景的设计看起来就像真实场景,那么这种方法就失落效了——你可以直接将相机对准一张假造的图片。
目前,我们可以通过检讨捕捉到的图像是否失落真来判断照片是否从数字屏幕上拍摄的,但骗子们会找到隐蔽这些瑕疵的方法(例如,通过利用更好的屏幕,或通过限定镜头眩光)。
终极,纵然是人工智能工具也无法识别这种敲诈行为,由于骗子可以找到避免所有这些失落真的方法。

硬件认证将减少信赖假造图像的情形,但少数情形下,我们仍旧须要额外的工具来防止深度假造图像在摄像头被入侵或滥用情形下贱传。
正如我们之前所谈论的,利用经由硬件验证的摄像头仍有可能造成深度假造内容是真实图像的缺点印象,缘故原由比如摄像头被黑客攻击,或相机被用来拍摄电脑屏幕上深度假造的场景。
要办理这个问题,还须要其他工具,比如摄像头黑名单。

相机黑名单将使社交媒体平台和运用程序能够标记来自特定相机的图像,由于已知该相机过去曾天生过误导性图像。
黑名单可以无需公开表露可用于追溯相机的信息,如相机 ID 等。

然而,目前还不清楚由谁来掩护摄像机黑名单,也不清楚如何防止人们收受贿赂后把举报人的相机也加入黑名单(的报复行为)。

3.1.3.2 基于区块链的图像年表

区块链是不可修改的,因此在互联网上涌现图像时,将图像与附加元数据一起添加到带有韶光戳的年表中,这样韶光戳和元数据就不会被修改。
由于未经编辑的原始图片在恶意编辑扩散之前,就能被老实的各方以不可变动的办法存储在区块链上,因此访问这样的记录将使我们能够识别恶意编辑并验证原始来源。
这项技能已在Polygon区块链网络上履行,作为与福克斯新闻互助开拓的事实核核对象 Verify 的一部分。

区块链可以防止人们修改图片的韶光顺序,但无法阻挡欺骗性图片的涌现。

图 15:Fox 基于区块链的工具 Verify 的用户界面。
可以通过 URL 查找艺术品。
从 Polygon 区块链获取并显示来源、交易哈希值、署名、韶光戳和其他元数据。

3.1.3.3 数字身份

如果“深度假造”(deepfakes)会毁坏我们对未经核实的图片和视频的信赖,那么可信来源可能会成为避免虚假信息的唯一路子。
我们已经依赖可信的媒体来源来核实信息,由于它们采撤消息标准、事实核查流程和编辑监督来确保所发布内容的准确性和可信度。
然而,我们须要一种方法来验证我们在网上看到的内容是否来自我们信赖的来源。
这便是加密署名数据的用途:它可以用数学方法证明某篇内容的作者是谁。

署名是利用数字密钥天生的,由于密钥是由钱包创建和天生的,因此只有拥有干系加密钱包的人才知道。
这样我们就能知道谁是数据的作者:您只需检讨署名是否与个人加密钱包中的密钥相对应,而该密钥只属于个人。

我们可以利用加密货币钱包,以无缝和用户友好的办法为我们的帖子附加署名。
如果我们利用加密货币钱包登录社交媒体平台,就可以利用钱包在社交媒体上创建和验证署名的功能。
因此,如果某个帖子的来源不可信,平台将能够向我们发出警告——它将利用自动署名校验来标记缺点信息。

此外,zk-KYC根本举动步伐与钱包连接,可将未知钱包与真实身份绑定,而不会危害用户隐私和匿名性。
这意味着骗子无法用虚假身份创建虚假账户来兜售虚假信息。

3.1.3.4 经济勉励方法\"大众(有了Veracity Bonds),如果你的手在饼干罐里被抓到,你实际上会赔钱,而且,作为读者,我会知道你有多可信\公众。
- 查尔斯-霍斯金森,卡达诺创始人;以太坊联合创始人

作者可因缺点信息而受随处分;用户可因识别缺点信息而得到褒奖。
例如,“真实性债券”使媒体机构能够以其出版物的准确性作为赌注,并因缺点信息面临经济惩罚。
因此,“真实性债券”为这些媒体公司供应了一个经济上的情由来确保信息的真实性。

真实性债券将是我们的“原形市场”不可分割的一部分,在这个市场上,不同的系统通过以最高效、最稳健的办法验证内容的真实性来赢得用户的信赖。
这类似于证明市场,如Succinct Network和=nil Proof Market,但针对的是仅靠密码学还不敷以验证原形的模糊问题。
智能合约(Smart Contracts)可以作为一种手段,逼迫履行使这些原形市场发挥浸染所需的经济勉励方法,因此区块链技能可能会在帮助打击虚假信息方面发挥核心浸染。

3.1.3.5 荣誉评分\公众如果我们不办理内容的荣誉和认证(问题),事情就会变得非常奇怪\"大众。
- 伊利亚-波罗苏欣,NEAR 联合创始人;《关注便是你所须要的统统》一书的共同作者

我们可以用荣誉来代表可信度。
例如,我们可以看一个人在推特上有多少粉丝,来判断我们是否该当相信他所说的话。
不过,荣誉系统也应考虑作者的过往记录,而不仅仅是他们的有名度。
我们不能把可信度与影响力混为一谈。

我们不能许可儿们无限量地天生匿名身份,否则,他们就可以在名誉受损时抛弃自己的身份,以重置他们的社会可信度。
这就哀求我们利用无法复制的数字身份,如上一节所述。

我们还可以利用“原形市场”和“硬件认证”中的证据来确定一个人的荣誉,由于这些都是追踪其真实记录的可靠方法。
荣誉系统是迄今为止所有其他办理方案的集大成者,因此也是最稳健、最全面的方法。

图 16:马斯克在 2018 年提出要建立网站对期刊论文、编辑和出版物的可信度评分

3.1.4 加密货币办理方案可以扩展吗?

上述区块链办理方案须要快速和高存储量的区块链——否则,我们就无法将所有图像纳入链上可验证的韶光逻辑记录中。
随着每天发布的在线数据量呈指数级增长,这一点只会变得越来越主要。
不过,有一些算法可以以可验证的办法压缩数据。

此外,通过硬件认证天生的署名不适用于图像的编辑版本:必须利用 zk-SNARKs 天生编辑证明。
ZK Microphone 是音频校验实现的案例。

3.1.5 深度假造并非天生有害

必须承认,并非所有的深度假造都是有害的。
这项技能也有良性的用场,比如这段人工智能天生的泰勒-斯威夫特(Taylor Swift)教授数学的视频。
由于深度假造的低本钱和可访问性,更个性化的体验也成为可能。
例如,HeyGen许可用户发送带有人工智能天生的酷似自己人脸的个人信息。
深度仿真还通过配音翻译帮助缩小措辞差距。

3.1.5.1 掌握深度假造并将其货币化的方法

基于深度假造技能的人工智能“仿真人”做事(AI counterpart services),他们收取高额用度,缺少问责制和监督。
最近,OnlyFans上的头号网红Amouranth发布了自己的数字人做事,粉丝们可以与她私下互换。
这些做事,尤其是初创公司,可能会限定乃至关闭访问权限。
例如,AI伴侣网站Soulmate关闭后,用户伤心欲绝。

托管在链上的人工智能模型可以为用户供应更有力的担保,确保他们不会失落去访问权,并通过透明的利润分享来褒奖贡献者。
智能合约可以访问这些人工智能模型。
这样就可以在智能合约中设置风雅的规则,规定如何利用这些模型。
不过,这也存在技能寻衅。
目前,Giza、Modulus Labs 和 EZKL 所利用的一种方法——zkML——会产生高达1000倍的开销。
这是一个生动的研究领域,目前正在探索几种替代方案。
例如,HyperOracle正在考试测验利用 opML,Aizel正在构建一个基于多方打算(MPC)和可信实行环境(TEE)的办理方案。

3.1.6 章节择要繁芜的深度假造正在侵蚀政治、金融和社交媒体领域的信赖,凸显了建立 \"大众可验证网络 \"大众以掩护原形和民主诚信的必要性。
深度假造曾经是一项昂贵且技能密集型的事情,但随着人工智能的进步,它已变得很随意马虎制作,从而改变了缺点信息的格局。
历史背景见告我们,操纵媒体并不是新的寻衅,但人工智能使制造令人信服的假新闻变得更加随意马虎和便宜,因此须要新的办理方案。
视频造假带来了独特的危险,由于它们危害了传统上被认为是可靠的证据,导致社会陷入一种困境,即真实施为可能被当作假的。
现有对策分为意识、平台、政策和技能方法,每种方法在有效打击深度假造方面都面临寻衅。
硬件证明和区块链证明了每张图片的来源,并创建了透明、不可变动的编辑记录,从而供应了前景广阔的办理方案。
加密货币钱包和zk-KYC加强了在线内容的验证和认证,而链上信誉系统和经济勉励方法(如 \"大众真实性债券\"大众)则为原形供应了一个市场。
在承认深度假造的积极用场的同时,加密技能还提出了一种将有益的深度假造列入白名单的方法,从而在创新与诚信之间取得平衡。

3.2 苦涩的一课“从70年的人工智能研究中可以收成的最大教训是,利用通用方法打算终极是最有效的,而且因此很大的上风取胜。
”\– The Bitter Lesson苦涩的一课, Rich Sutton教授

这句话有悖常理,但却是事实。
人工智能界谢绝接管定制方法效果不佳的说法,但\"大众苦涩的教训\"大众仍旧适用:利用最强的打算能力总能产生最好的结果。

我们必须扩大规模:更多GPU、更多数据中央、更多演习数据。

打算机国际象棋研究职员曾试取利用人类顶尖棋手的履历来构建国际象棋引擎,这便是研究职员弄错了的一个例子。
最初的国际象棋程序都是照搬人类的开局策略(利用\"大众开局书\"大众)。
研究职员希望国际象棋引擎能从强势局势开始,而无需从头开始打算最佳棋步。
它们还包含许多\公众战术启示法\"大众——人类棋手利用的战术,如叉子。
大略地说:国际象棋程序是根据人类对如何成功下棋的见地而不是一样平常的打算方法构建的。

图 17:叉子的一个实例。
皇后用于同时攻击两个棋子。

图 18:国际象棋开局顺序示例。

1997年,IBM的DeepBlue结合了巨大的打算能力和基于搜索的技能,击败了国际象棋天下冠军。
只管DeepBlue优于所有\"大众人类设计\"大众的国际象棋引擎,但国际象棋研究职员对其避而远之。
他们认为,DeepBlue的成功只是昙花一现,由于它并没有采取国际象棋策略——在他们看来,这是一种粗暴的办理方案。
他们错了:从长远来看,将大量打算运用于一样平常问题的办理方法每每会比定制方法产生更好的结果。
这种高打算意识形态催生了成功的围棋引擎(AlphaGo)、改进的语音识别技能,以及更可靠的打算机视觉技能。

高打算人工智能方法的最新成果是OpenAI的ChatGPT。
与之前的考试测验不同,OpenAI 并没有试图将人类对措辞事情事理的理解编码到软件中。
相反,他们的模型将来自互联网的大量数据与海量打算结合起来。
与其他研究职员不同的是,他们没有干预,也没有在软件中嵌入任何偏见。
从长远来看,性能最好的方法总是基于利用大量打算的通用方法。
这是历史事实;事实上,我们可能有足够的证据证明这一点永久精确。

从长远来看,将巨大的打算能力与大量数据相结合是最好的方法,其缘故原由在于摩尔定律:随着韶光的推移,打算本钱将呈指数级低落。
在短期内,我们可能无法确定打算带宽的大幅增长,这可能导致研究职员试图通过手动将人类知识和算法嵌入软件来改进他们的技能。
这种方法可能会在一段韶光内见效,但从长远来看不会取获胜利:将人类知识嵌入底层软件会使软件变得更加繁芜,模型也无法根据额外的打算能力进行改进。
这使得人工方法变得目光短浅,因此萨顿建议我们忽略人工技能,将重点放在将更多打算能力运用于通用打算技能上。

《苦涩的一课》对我们该当如何构建去中央化的人工智能有着巨大的影响:

构建大型网络:上述履历教训凸显了开拓大型人工智能模型并搜集大量打算资源对其进行演习的紧迫性。
这些都是进入人工智能新领域的关键步骤。
Akash、GPUNet和 IoNet等公司旨在供应可扩展的根本举动步伐。

图 19:Akash价格与亚马逊AWS等其他供应商的比较

硬件创新:ZKML 方法一贯受到批评,由于它们的运行速率比非ZKML方法慢1000倍。
这与神经网络面临的批评不谋而合。
20世纪90年代,神经网络展现出了巨大的前景。
Yann LeCun的CNN模型是一个小型神经网络,能够对手写数字图像进行分类(见下图),并取得了成功。
到1998 年,美国有超过10%的银行利用这种技能读取支票。
然而,这些CNN模型无法扩展,因此人们对这些神经网络的兴趣急剧低落,打算机视觉研究职员又开始利用人类知识来创建更好的系统。
2012年,研究职员利用GPU(一种常日用于天生打算机图形(游戏、CGI 等的盛行硬件)的打算效率,开拓出一种新的 CNN。
这让他们达到了令人难以置信的性能,超过了当时所有其他可用的方法。
这个网络被称为 AlexNet,它引发了深度学习革命。

图 20:90 年代的神经网络只能处理低分辨率的数字图像

图 21:2012 年的神经网络(AlexNet)能够处理繁芜图像,其性能优于所有其他方法。

人工智能技能的升级是一定的,由于打算本钱总是越来越低。
用于ZK和FHE等技能的定制硬件将加速进展——Ingonyama等公司和学术界正在铺平道路。
从长远来看,我们将通过运用更强的打算能力和提高效率来实现大规模的ZKML。
唯一的问题是,我们将如何利用这些技能?

图 22:ZK 证明器硬件进步的一个例子

扩展数据:随着人工智能模型规模和繁芜性的增长,有必要相应地扩展数据集。
一样平常来说,数据集的规模应与模型规模成指数增长,以防止过度拟合并确保性能稳定。
对付一个拥有数十亿参数的模型来说,这每每意味着要策划包含数十亿token或示例的数据集。
例如,谷歌的BERT模型是在包含超过25亿个单词的全体英文维基百科和包含约8亿个单词的BooksCorpus上进行演习的。
而Meta的 LLama则是在1.4万亿个词库的根本上进行演习的。
这些数字强调了我们所需的数据集的规模——随着模型向万亿个参数发展,数据集必须进一步扩大。
这种扩展可以确保模型能够捕捉到人类措辞的细微差别和多样性,因此开拓弘大、高质量的数据集与模型本身的架构创新同样主要。
Giza、Bittensor、Bagel和FractionAI等公司正在知足这一领域的分外需求(有关数据领域的寻衅,如模型崩溃、对抗性攻击和质量担保方面的寻衅,详见第 5 章)。

开拓通用方法:在去中央化人工智能领域,ZKPs和FHE等技能采取针对详细运用的方法是为了追求吹糠见米的效率。
为特定架构量身定制办理方案可提高性能,但可能会捐躯长期灵巧性和可扩展性,从而限定更广泛的系统演进。
相反,专注于通用方法供应了一个根本,只管最初会有效率低下的问题,但具有可扩展性,能够适应各种运用和未来的发展。
在摩尔定律等趋势的推动下,随着打算能力的增长和本钱的降落,这些方法必将大放异彩。
在短期效率和长期适应性之间做出选择至关主要。
强调通用方法可以为去中央化人工智能的未来做好准备,使其成为一个稳健、灵巧的系统,充分利用打算技能的进步,确保持久的成功和干系性。

3.2.1 结论

在产品开拓的早期阶段,选择不受规模限定的方法可能至关主要。
这对公司和研究职员评估用例和想法都很主要。
然而,惨痛的教训见告我们,从长远来看,我们该当始终牢记优先选择通用的可扩展方法。

这里有一个手动方法被自动、通用微分所取代的例子:在利用TensorFlow和PyTorch等自动微分(autodiff)库之前,梯度常日是通过手动或数值微分来打算的——这种方法效率低、随意马虎出错,而且会产生问题,摧残浪费蹂躏研究职员的韶光,而自动微分则不同。
现在 Autodiff已成为不可或缺的工具,由于autodiff库加快了实验速率,简化了模型开拓。
因此,通用办理方案得胜了——但在autodiff成为成熟可用的办理方案之前,旧的手动方法是进行ML研究的必要条件。

总之,里奇·萨顿的\"大众苦涩的一课\"大众见告我们,如果我们能最大限度地提高人工智能的打算能力,而不是试图让人工智能去模拟人类所熟知的方法,那么人工智能的进步将会更快。
我们必须扩展现有打算能力、扩展数据、创新硬件并开拓通用方法——采取这种方法将对去中央化人工智能领域产生诸多影响。
只管\公众苦涩的一课\公众不适用于研究的最初阶段,但从长远来看,它可能永久都是精确的。

3.3 AI Agents(人工智能代理)将颠覆谷歌和亚马逊3.3.1 谷歌的垄断问题

在线内容创作者常日依赖谷歌来发布他们的内容。
反过来,如果许可谷歌索引和展示他们的作品,他们就能得到源源不断的关注和广告收入。
然而,这种关系是不平衡的;谷歌拥有垄断地位(超过80%的搜索引擎流量),其市场份额是内容创作者自身无法企及的。
因此,内容创作者的收入严重依赖于谷歌和其他科技巨子。
谷歌的一个决定就有可能导致个人业务的闭幕。

谷歌推出的精选片段(Featured Snippets)功能——显示用户查询的答案,而无需点击进入原始网站——突出了这一问题,由于现在无需离开搜索引擎就能得到信息。
这打乱了内容创建者赖以生存的规则。
作为被谷歌索引其内容的交流条件,内容创建者希望自己的网站能得到推举流量和眼球。
取而代之的是,精选片段(Featured Snippets)功能许可谷歌总结内容,同时将创作者打消在流量之外。
内容生产者的分散性使他们基本无力采纳集体行动反对谷歌的决定;由于没有统一的声音,单个网站缺少讨价还价的能力。

图 23:Featured Snippets示例

谷歌通过供应用户查询答案的来源列表进行了进一步试验。
下面的示例包含《纽约时报》、维基百科、MLB.com等网站的来源。
由于谷歌直接供应了答案,这些网站不会得到那么多流量。

图 24:Featured Snippets中 “来自网络”功能示例

3.3.2 OpenAI 的垄断问题

谷歌推出的“精选片段”功能代表了一种令人担忧的趋势——减少原创内容创作者的认可。
ChatGPT将这一观点进行了逻辑上的延伸,充当了一个无所不知的信息代理,没有任何链接,也没有对原始材料的引用。

像ChatGPT这样的措辞模型可以通过总结从互联网上包罗的内容来回答险些任何问题,但它无法勾引用户访问原始出版者。
相反,该模型将从版权作品中得到的知识积累到一个完备由OpenAI 掌握的单一界面中。

这些模型的成功依赖于构成互联网的海量数据,而内容创作者对模型演习的主要投入却得不到任何回报。
一些规模较大的出版商设法与OpenAI等公司达成协议,但对付规模较小的内容创作者来说,这样的做法是不可行的。
还有一些出版商决定干脆阻挡人工智能模型搜索他们的内容,但对付闭源模型来说,这一点无法得到担保。

人工智能公司试图为自己的不赔偿行为辩白,称人工智能系统只是从内容中学习——就像人类从阅读中理解天下一样——但在产出内容时并没有陵犯内容创作者。
不过,这种说法值得商榷,由于ChatGPT可以逐字逐句地复制《纽约时报》的整篇文章。
Midjourney 和 DALL-E 也能天生受版权保护的内容。
其影响显而易见——大科技公司连续巩固权力,而无关联的内容创作者的影响力却在减弱。
这种不对称的关系引发了对谷歌的诉讼,而这种关系只会变得更加极度。
老牌出版商,如纽约时报已经采纳了法律行动,从数字艺术家到编码员等一系列内容创作者也采纳了集体诉讼。

一种建议的办理方案是\公众检索增强天生\公众(RAG),它许可措辞模型为其答案供应来源。
然而,这与”精选片段“存在同样的问题——它根本没有给用户任何访问原始网站的情由。
更糟糕的是,科技巨子们可以虚伪地利用RAG作为法律掩护,但同时仍剥夺了创作者的流量和广告收入。

图 25:RAG将链接作为来源,此结果由 Perplexity AI 天生

3.3.3 加密领域的潜在办理方案

随着像ChatGPT这样的\"大众信息代理\"大众的涌现,大科技公司彷佛准备重蹈覆辙,垄断人工智能的天生,只管它们依赖的是未经认可的创作者内容。
但是,现在人工智能正在扰乱市场,我们有机会重新分配权力,建立一个更公正的系统来补偿创作者。
本世纪初,政策制订者错失落了建立公正模式的机会,导致了本日的分配系统——一个由谷歌垄断的系统。
当古人工智能的崛起是一个十字路口,我们是要纠正过去的缺点,还是要让历史重演,让 OpenAI 和其他科技巨子得到单方面的掌握权?

为了长期勉励优质内容的生产,我们必须探索连续为创作者供应公正报酬的方法。
正如克里斯-迪克森(Chris Dixon)所言,加密货币通过区块链供应了一种办理方案,即充当集领会谈机器,办理类似的大规模经济折衷问题,尤其是在当前权力不对称的情形下。
它们的管理可以由创作者和人工智能供应商共同管理。

在人工智能方面,创造者可以利用区块链的能力来编写由软件逼迫实行的利用条款和规定干系限定。
例如,通过设定模型演习等商业运用的条件。
然后,智能合约将自动实行归属系统,将人工智能系统产生的部分收入分配给贡献者。
(在没有只能合约的情形下)纵然目前的人工智能公司想要补偿创作者,但是由于人数太多也不太可行。

区块链的可组合性还将减少对任何单一模式的依赖,从而实现更自由的人工智能市场。
这种竞争将为创作者带来更友好的利润分享。
面对由公道协议实行的统一条款,人工智能公司要么接管创作者制订的集体协议,要么只能放弃;科技巨子再也不能对个人施加单方面的影响力。

对ChatGPT等信息代理的集中掌握也引发了对嵌入式广告等问题的担忧。
虽然谷歌在搜索结果的顶部对广告进行了明确划分,但AI agents可以将付费推举无缝整合到回答中。
比较之下,基于加密领域的办理方案许可对AI agents进行审计。

3.3.4 人工智能代理(AI Agents)与亚马逊

从像ChatGPT这样回答措辞模型自然延伸出来的是可以代表用户采纳行动的人工智能程序,即从信息代理到行动代理(简称\"大众代理\"大众)的转变。
这些系统不仅能为你找到最好的蓝牙音箱,还能直接订购送货到家。
依赖OpenAI等公司的闭源代理来完成这些任务,将授予它们超越内容创作市场的巨大力量,有可能让它们主导 6.3 万亿美元的电子商务市场等行业。
OpenAI不仅会成为下一个谷歌,也会成为下一个亚马逊。

如果少数几家大型科技公司拥有功能最强大、运用最广泛的人工智能代理,那么它们将对消费者和各行各业产生巨大的影响力。
这些代理将对我们越来越广泛的数字生活——购物、旅行和理财——起到中介浸染。
如果没有人工智能代理,我们就只能依赖 OpenAI或谷歌这样的公司。
它们的闭源代理将成为网络天下的守门人,掌握我们对关键做事和信息的访问,而且它们可以修正代理的行为,而无需承担当何任务。

这种专有人工智能的权力集中与谷歌和Facebook等大型科技垄断企业的崛起有相似之处。
但是,当人工智能代理可以跨领域无缝地采纳行动时,其影响将呈指数级增长。
这便是去中央化的区块链替代方案如此主要的缘故原由——它们引入了竞争、用户授权和透明度,能够抵御人工智能代理被大型科技公司垄断的风险。

总之,像ChatGPT这样的人工智能模型为我们供应了信息代理,可以代表我们阅读内容并回答问题。
这不仅会颠覆我们消费信息的办法,也会颠覆谷歌的商业模式和创作者赖以生存的规则。
在这种颠覆面前,我们有机会建立一个对创作者的事情和贡献更公正地产生回报的新互联网。

能够采纳行动人工智能代理(例如在线购买商品)的区块链技能将颠覆电子商务。
区块链再次为建立公正的互联网模式供应了机会。
我们能否从谷歌和亚马逊时期的缺点中吸取教训?

3.4 加密领域将加速人工智能的开源技能的发展3.4.1 人工智能现在处于什么阶段?

目前,人工智能已成为21世纪发达社会的紧张工具。
人工智能的运用范围包括艺术、教诲、金融、政治、编程以及更多其他运用。
只需有限的提示,它就能在几秒钟内天生逼真的视频和图像。
程序员已经开始利用人工智能来开拓高效实用的代码,将自己的劳动外包给人工智能。
现实天下与科幻小说之间的界线正在随着人工智能在我们社会中的每一次运用而变得越来越模糊。

因此,我们很可能会面临劳动力危急。
如果我们能够将大量的智力劳动外包给人工智能,那么从经济角度来看,利用人工智能可能很快就会比利用人类劳动力更有上风。
如果人类劳动力被人工智能取代,我们就须要适应劳动力市场的这种新状态。
这种适应将导致我们当前经济系统的运作办法发生混乱。
本节将谈论人工智能的发展方向,以及通过加密技能办理方案防止此类危急发生的方法。

3.4.2 我们为什么要关注开源人工智能?

一样平常来说,开源软件是开放给任何人利用的软件,常日附有容许证,解释可以利用该软件、和不可以利用该软件做什么。
开源人工智能是指人工智能软件开放给任何人利用,并通过容许证供应类似的限定。
开源项目在常日采纳自由参与产品开拓的组织形式。
它以社区为中央,社区欢迎代码贡献和缺点改动,每每具有协作性子。
本节将解释人工智能开源的主要性。

人工智能技能的开源可以用来创造一个更具竞争力的人工智能市场。
竞争是件好事,由于在开拓产品的过程中,有各种各样的人拥有不同的才能和不同的技能水平。
假设有一家公司才济济,但却犯了一个大缺点,那么竞争性市场就会鼓励人们去填补这个缺点,从而限定缺点造成的危害。
开源人工智能降落了人们进入人工智能市场的门槛,任何人都可以利用人工智能软件并做出贡献。
由于任何人都可以通过开源人工智能进入市场,这就意味着市场上有了更多的竞争者,使该行业的竞争好比今激烈得多。

通过开源人工智能技能可用于保护行业免受恶意侵害。
技能是一种强大的工具,但其本身是中性的。
它可以用来造福人类,也可以用来危害人类,这取决于技能节制在谁的手中。
我们更希望有好的行为者来节制这项技能,尤其是为了对抗那些利用技能来侵害人类的行为者。
通过开源可以让更多的年夜大好人和人才进入人工智能行业。
这样可以有效打击那些希望利用人工智能造成危害的人,减少利用人工智能的邪恶势力将使天下更加安全。

此外,人工智能行业的准入门槛降落,人才和技能库得以开释,会促进行业的进一步发展。
人工智能能为我们人类带来进步。
我们已经概述了其目前的广泛运用,但其仍由巨大的发展潜力,这对我们人类的进步大有裨益。
通过开源人工智能技能可以降落人才进入该行业的门槛,从而加速人工智能的发展。
更多的人才意味着我们可以制造出更好的人工智能,在社会中得到更广泛的运用。
开源人工智能为我们供应了一个工具,让我们能够得到开拓这项技能的人才和能力的源泉。

人工智能技能的开源为开拓职员供应了自由空间,他们可以根据自己的须要指定和定制人工智能。
人工智能的一个特点是可以为特定目的进行定制。
定制的人工智能可以知足特定的须要和需求,从而大大提高产品的质量。
由于目前人工智能行业的封闭性,开拓者定制人工智能软件的能力每每受到限定。
开源的人工智能技能将许可开拓者自由定制,使他们的产品达到最佳效果。
这种自由将带来更好的市场,也将带来更好的产品。

总结来看,”技能-成本“是一个永久增长的机器。
通过市场得到的成本推动技能发展,市场通过技能发展创造更多成本,从而形成良性循环。
开源人工智能供应了一个竞争、低门槛、自由和协作的空间,这会促进创新和人工智能技能的传播,从而刺激经济增长和更多市场(需求)。
这对行业的发展能力和造福人类都至关主要。

3.4.3 OpenAI与开源人工智能

在人工智能行业,领先的公司是OpenAI。
自2022年发布ChatGPT以来,OpenAI 已在利润和知识方面领跑人工智能行业。
他们拥有Microsoft和大科技公司的支持,因此在人工智能市场根基很深。
从目前来看,要让开源人工智能与OpenAI在同一水平线上竞争,彷佛是一场艰巨的战斗。
然而,我们有充分的情由认为,开源人工智能有望在市场上寻衅并击败 OpenAI。

将人工智能技能开源能够规避恐怖确当局对人工智能行业履行的监管。
目前,天下各地确当局和监管机构都在争相监管和限定新兴的人工智能家当。
这种监管的目标是OpenAI所利用的传统人工智能,即由单一组织集中管理和保存的人工智能。
这种监管将限定人工智能行业的发展。
然而,开源的人工智能项目具有可以没有管理者的上风,而且是去中央化的。
这意味着政府很难对开源的人工智项目能进行监管。
这就为其供应了一个上风,即未来不会像OpenAI那样受到法规的限定。

此外,我们还看到,开源的人工智能技能和项目可以从OpenAI中获益,而OpenAI却无法从它们中获益。
OpenAI的紧张目标是实现自身利益的最大化,这意味着他们将大量模型和数据保密,以防止竞争对手利用这些模型和数据为自己谋利。
开源人工智能可以利用容许证来阻挡OpenAI从不太规范的开拓中获益。
OpenAI会创造自己在市场中伶仃无援,由于他们只是一家公司,而利用开源的人工智能技能和项目的机构却很多。
这将意味着,开源公司可以通过限定OpenAI的访问权限,从OpenAI丰富的数据和知识中获益。
不过,可能须要新的容许证才能终极为OpenAI供应这种访问权。

末了,与OpenAI比较,开源的技能很有可能吸引那些热衷于改进人工智能的意识形态人士。
这是由于它的准入门槛很低。
然而,有人可能会认为,这将导致难以折衷和开拓产品的情形。
然而,这类项目并不须要很多人。
Linux的Linus Torvalds 便是这样一个例子,一个人持续不断地为项目做出贡献,就能产生如此巨大的影响。
OpenAI的准入门槛较高,因此很难吸引有激情亲切的人加入。

只管现在看来,OpenAI已经牢牢掌握了人工智能行业,但开源的人工智能项目可以依赖几条路线来寻衅OpenAI的掌握。
其灵巧性、可访问性以及以社区为中央而非以利润为中央的人工智能方法,意味着它拥有强大的工具,可以通过在不断发展和动态的市场中伶仃它们来击败OpenAI。
它们有潜力击败OpenAI。

3.4.4 人工智能技能开源的问题

然而,开源的人工智能技能要想与大型科技公司和OpenAI反抗,还必须战胜一些障碍。
这些障碍可分为三个类。
首先,这个领域缺少人才。
其次,这些项目和技能缺少实际事情所需的打算能力。
第三,缺少可供人工智能自我演习和发展的数据。
本节将专门阐述这三个问题。

任何组织要想正常运转,都须要人才来供应开拓产品所需的创新理念和事情。
开源的人工智能项目面临的一个紧张问题是,在这些社区事情没有利润或金钱勉励。
大多数人工智能工程师在决定在以下领域事情时不得不做出选择,要么在大科技公司从事高薪事情,要么冒险创业。
安全的选择,也便是大多数人的选择,是在大科技公司事情并在那里谋生。
最精良的人才都去了OpenAI,而不是在没有金钱勉励的开源人工智能社区事情。
因此,这个领域无法吸引最精良的人才,也就无法开拓出能够寻衅大型科技公司的创新产品。

另一个问题是,开源的人工智能项目缺少必要的打算能力,无法达到OpenAI所能达到的规模。
更大规模的人工智能须要更多的GPU来扩大运行规模。
GPU价格昂贵,实际上只有 Nvidia一家公司生产。
这些开源项目缺少资金意味着很难为AI模型供应足够的打算能力,从而与OpenAI的ChatGPT竞争。
纵然是在软件工程方面拥有高质量标准的Linux,也受限于其程序的打算规模。
它们缺少随意访问超级打算机的能力,因此很难与拥有这种特权的OpenAI竞争。

人工智能模型须要数据来演习。
只管Meta和OpenAI等大型科技公司标榜自己是\"大众开放\"大众或\公众开源\"大众的,但它们用于演习人工智能的数据都是私有的,只对自己开放。
它们只公布完成后的人工智能模型,如ChatGPT。
这些数据来自Meta 和OpenAI的海量用户群,质量和数量都很高。
开源的人工智能项目劣势在于无法得到大量的高质量数据,因此无法利用最好、最多的数据来演习人工智能模型,从而无法与Meta或OpenAI 竞争。
因此无法开拓出能与 OpenAI 或 Meta 的产品相反抗的产品。

这些开源的人工智能技能和项目须要的是战胜这三大问题的方法,这三大问题阻碍了它们寻衅大型科技公司对人工智能行业掌握的潜力。
我们认为,加密技能可以办理它们的这些问题。

3.4.5 加密领域 (crypto) 的人工智能开源办理方案

我们相信,加密技能可以办理上一节概述的所有三个问题。
本节将专门针对每个详细问题提出办理方案。

首先,加密货币可以通过在人工智能领域的开源项目中创建收入/褒奖系统来办理人才问题。
加密货币可以通过为项目贡献供应内在勉励来帮助这些项目运转。
这方面的一个例子是AGI Guild,这是一个由意识形态开源开拓者组成的团体,他们创造了一个容许证,可以褒奖为开源项目做出贡献的开拓者。

容许证由AGI代币管理。
超过100万美元规模的公司必须得到AGI代币才能利用容许证。
然后代币将分配给开源人工智能项目的贡献者。
这既是对开拓者的金钱褒奖,也授予了代币本身的代价,从而鼓励更多的贡献。
此外,还有投票系统供成员集体决定项目的发展方向,在开源人工智能领域鼓励任人唯贤和民主,同时得到从开源人工智能中赢利的能力。

由于现在有了金钱上的勉励,未来和现在的人才将不须要把自己的道路视为要么安全地选择Meta,要么在风险投资上决一死战,而是看到了第三条道路,即你可以在开拓人工智能的过程中赢利,而不必受到大型科技公司的专有限定。
人才将被开源人工智能项目所吸引,将其视为对抗大型科技公司的可行竞争对手。

其次,加密技能可降落访问做事器门槛来办理打算问题。
过去,云厂商可能会谢绝开拓职员利用其做事器来开拓产品。
有了加密技能,现在变得无需容许,这意味着任何人都可以得到他们的项目所需的打算能力。
这意味着,利用开源人工智能和加密技能的开拓职员现在可以根据自己的须要自由利用尽可能多的打算资源。

加密技能还为开拓者和社区供应了与云厂商榷价还价的能力。
在过去很短的韶光内,云厂商可以提高利用价格,由于开源人工智能开拓者须要他们的做事器来运行他们的程序。
现在,有了加密技能,我们可以将这一系统去中央化,开始寻衅云厂商的价格,为更多想要开拓开源人工智能的人洞开大门。
现在,社区有办法也有能力向AWS等云打算公司提出寻衅,哀求降落价格,从而提高产品质量和事情质量。

末了,加密技能可以办理数据问题,帮助那些为开源人工智能项目天生数据的用户供应褒奖。
这方面的一个例子是Grass,它有一个浏览器插件,可以在用户浏览互联网时天生代币。
这种褒奖制度意味着,随着韶光的推移,随着加密运用供应更多的数据,开源的人工智能项目就能够得到越来越多的数据。
这因此去中央化的办法实现的,这意味着我们不会陷入监管机构或大型科技公司创造这一问题并采纳禁止IP地址等方法加以阻挡的问题。
这种办法无法有效阻挡,由于有很多人都在利用这种插件,封禁一个人对其他人获取这些数据险些没有影响。
这样一来,这些开源项目开拓者就能得到和大公司一样好的数据。
这无疑会提高人工智能模型的演习水平。
纵然是须要保密的数据,加密技能也能充分保护隐私,而且只要数据所属用户赞许,加密技能也能对其进行获取,从而更好地利用人工智能模型。

总之,我们创造加密技能能够在爬取数据时知够数据敏感性哀求,同时通过向开源人工智能程序更好地供应演习人工智能模型所需的数据。
我们所追求的空想是,开源人工智能系统打败基于闭源软件的私有系统。

机器学习如何事情?

在深入磋商人工智能(AI)与加密货币的交集之前,首先要单独先容人工智能领域的一些观点。
由于本报告是为加密货币领域的读者撰写的,读者并非都对人工智能和机器学习观点有深刻理解。
而理解干系观点至关主要,这样读者才能评估人工智能和加密货币交叉领域的哪些想法具有本色意义,并准确评估项目的技能风险。
本节重点先容人工智能的观点;此外,本节也重点先容了人工智能与加密货币之间的关系。

通过本章的提示,我们可以理解人工智能观点与加密领域的关系。

本节所涉主题概述:

机器学习(machine learing, ML)是人工智能的一个分支,在这个分支中,无需明确编程,机器就能通过数据做出决策。
ML流程分为三个步骤:数据、演习和推理。
演习模型的打算本钱非常高,而推理则相对便宜。
学习紧张有三种类型:监督学习、无监督学习和强化学习。
监督的学习是指从范例(由西席供应)中学习。
西席可以向模型展示狗的图片,并见告它这便是狗。
然后,模型就能学会将狗与其他动物区分开来。
然而,许多盛行的模型,如LLMs(如GPT-4和LLaMa),都是通过无监督学习来演习的。
在这种学习模式中,西席不会供应任何辅导或示例。
相反,模型通过学习来创造数据中的模式。
强化学习(试错学习)紧张用于连续决策任务,如机器人掌握和游戏(如国际象棋或围棋)。

1.1 人工智能和机器学习

1956 年,一些当时最聪明的人聚拢在一起参加了一个研讨会。
他们的目标是提出智力的一样平常原则。
他们指出:

\"大众学习的每一个方面或智能的任何其他特色都可以被如此精确地描述出来,以至于可以制造一台机器来仿照它。
\"大众

在人工智能发展的早期,研究职员充满了乐不雅观主义。
从某种意义上说,他们的目标是人工通用智能(AGI),年夜志勃勃。
我们现在知道,这些研究职员并没有设法创造出具有通用智能的人工智能代理。
70 年代和 80 年代的人工智能研究职员也是如此。
在那个期间,人工智能研究职员试图开拓 \"大众基于知识的系统\"大众。

基于知识的系统的关键理念是,我们可以为机器编写非常精确的规则。
从实质上讲,我们从专家那里提取非常详细和精确的领域知识,并以规则的形式写下来供机器利用。
然后,机器就可以利用这些规则进行推理并做出精确的决定。
例如,我们可以考试测验从马格努斯·卡尔森(Magnus Carlson)那里提炼出下棋的所有原则,然后构建一个人工智能来下棋。

然而,要做到这一点非常困难,纵然有可能,也须要大量的人工来创建这些规则。
试想一下,如何将识别狗的规则写入机器?机器如何才能从拥有像素到知道狗是什么?

人工智能的最新进展来自于一个被称为 \"大众机器学习 \"大众的分支。
在这种模式下,我们不是为机器编写精确的规则,而是利用数据,让机器从中学习。
利用机器学习的当代人工智能工具随处可见,例如 GPT-4、iPhone 上的 FaceID、游戏机器人、Gmail 垃圾邮件过滤器、医疗诊断模型、自动驾驶汽车......等等。

1.2 机器学习管道(pipeline)

机器学习管道可分为三个紧张步骤。
有了数据,我们要演习模型,然后有了模型,我们就可以利用它。
利用模型称为推理。
因此,这三个步骤分别是数据、演习和推理。

高度概括来说,数据步骤包括查找干系数据并对其进行预处理。
例如,如果我们要建立一个对狗进行分类的模型,我们须要找到狗和其他动物的图片,这样模型才能知道什么是狗,什么不是狗。
然后,我们须要对数据进行处理,并确保数据格式精确,以便模型能够精确学习。
例如,我们可能哀求图片大小同等。

第二步是演习,我们利用数据来学习模型该当是什么样的。
模型内部的方程是什么?神经网络的权重是多少?参数是什么?正在进行的打算是什么?如果模型不错,我们就可以测试它的性能,然后就可以利用它了。
这就到了第三步。

第三步称为推理,即我们只是利用神经网络。
例如,给神经网络一个输入,然后问一个问题:可以通过推剃头生输出吗?

图 28:机器学习管道的三个紧张步骤是数据、演习和推理

1.2.1 数据

现在,让我们深入理解一下每个步骤。
第一:数据。
广义上讲,这意味着我们必须网络数据并对其进行预处理。

让我们来看一个例子。
如果我们想建立一个供皮肤科年夜夫(专门治疗皮肤病的年夜夫)利用的模型。
我们首先要网络许多人脸的数据。
然后,我们请专业皮肤科年夜夫来评估是否存在皮肤病。
现在可能会涌现许多寻衅。
首先,如果我们拥有的所有数据都包括人脸,那么模型将很难识别身体其他部位的任何皮肤状况。
其次,数据可能存在偏差。
例如,大部分数据可能是一种肤色或色调的图片。
第三,皮肤科年夜夫可能会犯错,这意味着我们会得到缺点的数据。
第四,我们得到的数据可能会陵犯隐私。

经济勉励方法有助于网络高质量的数据,而隐私保护技能可以办理用户在上述例子等敏情感况中的顾虑。

我们将在第2章中先容更深层次的数据寻衅。
不过,这可以让你理解到,网络好的数据并对其进行预处理是相称具有寻衅性的。

图 29:两个盛行数据集的示意图。
MNIST包含手写数字,而ImageNet包含数百万张不同类别的注释图像

在机器学习研究中,有许多著名的数据集。
常用的有:

MNIST数据集解释:包含70,000个灰度图像格式的手写数字(0-9)利用案例:紧张用于打算机视觉中的手写数字识别技能。
它是一个对初学者友好的数据集,常日用于教诲领域。
ImageNet解释:一个包含1,400多万张图片的大型数据库,标注有20,000多个类别的标签。
利用案例:用于工具检测和图像分类算法的演习和基准测试。
一年一度的ImageNet大规模视觉识别寻衅赛(ILSVRC)一贯是推动打算机视觉和深度学习技能发展的主要活动。
IMDb评论解释:包含来自 IMDb的50,000篇电影评论,分为两组:演习和测试。
每组包含相同数量的正面和负面评论。
利用案例:广泛运用于自然措辞处理(NLP)中的情绪剖析任务。
它有助于开拓能理解文本中表达的情绪(正面/负面)并对其进行分类的模型。

获取大型、高质量的数据集对付演习良好的模型极为主要。
然而,这可能具有寻衅性,尤其是对付较小的组织或个人搜索者而言。
由于数据非常宝贵,大型机构常日不会共享数据,由于数据供应了竞争上风。

在透明度和开放性与盈利能力之间取得平衡的办理方案可以提高开放数据集的质量。

1.2.2 演习

管道的第二步是演习模型。
那么,演习模型究竟意味着什么呢?首先,我们来看一个例子。
一个机器学习模型(演习完成后)常日只有两个文件。
例如,LLaMa 2(一个大型措辞模型,类似于 GPT-4)便是两个文件:

参数,一个 140GB 的文件,个中包括数字。
run.c ,和一个大略的文件(约 500 行代码)。

第一个文件包含 LLaMa 2 模型的所有参数,run.c 包含如何进行推理(利用模型)的解释。
这些模型都是神经网络。

图 30:神经网络的基本图示

在像上面这样的神经网络中,每个节点都有一堆数字。
这些数字被称为参数,并存储在文件(惊喜!
)参数中。
获取这些参数的过程称为演习。
下面是一个高度概括的过程。

想象一下演习一个识别数字(从0到9)的模型。
我们首先网络数据(在这种情形下,我们可以利用MNIST数据集)。
然后开始演习模型。

我们取第一个数据点,即 \"大众5\"大众。
然后,我们将图像(\"大众5\"大众)通报给网络。
网络会对输入图像进行数学运算。
网络将输出一个0到9之间的数字。
该输出是当前网络对该图像的预测。
现在有两种情形。
网络要么是对的(它预测了 \"大众5\"大众),要么是错的(任何其他数字)。
如果它预测的数字精确,我们就不用做什么。
如果预测的数字禁绝确,我们将返收受接管集,对所有参数进行小幅修正。
在做了这些小改动后,我们再试一次。
从技能上讲,网络现在有了新的参数,因此预测结果也会不同。
我们对所有数据点一贯这样做,直到网络基本精确为止。

这一过程实质上是顺序性的。
我们首先通过全体网络通报一个数据点,看看预测结果如何,然后更新模型的权重。

演习过程可以更加全面。
首先,我们必须选择模型架构。
我们该当选择哪种类型的神经网络?并不是所有的机器学习模型都是神经网络。
其次,在确定哪种架构最适宜我们的问题,或者至少是我们认为最适宜的架构之后,我们须要确定演习流程。
例如,我们将以何种顺序将数据通报给网络?

第三,我们须要硬件设置。
我们要利用什么样的硬件(CPU、GPU、TPU)?我们又该如何对其进行演习?

末了,在演习模型的同时,我们要验证这个模型是否真的很好。
我们希望在演习结束时测试这个模型是否能供应我们想要的输出结果。
剧透(实在也不算剧透),演习模型的打算本钱非常高。
任何眇小的低效都会带来巨大的本钱。
正如我们稍后将看到的,特殊是对付像LLM这样的大型模型,低效的演习可能会让你付出数百万美元的代价。

在第2部分中,我们将再次详细谈论演习模型所面临的寻衅。

1.2.3 推理

机器学习管道的第三步是推理,也便是利用模型。
当我利用ChatGPT并得到回合时,模型正在实行推理。
如果我用脸部解锁iPhone,脸部ID模型会识别我的脸并打开手机。
该模型实行了推理。
数据已经有了,模型已经演习好了,现在模型演习好了,我们就可以利用它,利用它便是推理。

严格来说,推理与网络在演习阶段做出的预测是一回事。
回忆一下,一个数据点通过网络,然后进行预测。
然后根据预测的质量更新模型参数。
推理的事情事理与此相同。
因此,与演习比较,推理的打算本钱非常低。
演习LLaMa可能要花费数千万美元,但推理一次只需几分之一。
与演习比较,打算本钱更低。
演习 LLaMa可能要花费数千万美元,但进行一次推理只需几分之一。

与演习比较,进行推理的本钱很低,而且更随意马虎并行化,这可能为小型闲置打算(如条记本电脑和手机)供应了机会。

推理过程有几个步骤。
首先,在实际生产中利用之前,我们须要对其进行测试。
我们对演习阶段未见的数据进行推理,以验证模型的质量。
其次,当我们支配一个模型时,会有一些硬件和软件哀求。
例如,如果我的iPhone上有人脸识别模型,那么该模型就可以放在苹果公司的做事器上。
然而,这样做非常未便利,由于现在每次我想解锁手机时,都必须访问互联网并向苹果做事器发送要求,然后在该模型上进行推理。
然而,如果想在任意时候利用这种技能,进行人脸识别的模型就必须存在于你的手机上,这意味着该模型必须与你iPhone上的硬件类型兼容。

末了,在实践中,我们还必须掩护这一模式。
我们必须不断进行调度。
我们演习和利用的模型并不总是完美的。
硬件哀求和软件哀求也在不断变革。

1.2.4 机器学习管道是迭代式的

到目前为止,我把这个管道设计成了依次进行的三个步骤。
你获取数据,处理数据,清理数据,统统都很顺利,然后你演习模型,模型演习完成后,你进行推理。
这便是机器学习在实践中的美好图景。
实际上,机器学习须要进行大量的迭代。
因此,它不是一个链条,而是如下图所示的几个循环。

图 31:机器学习流水线可以形象地理解为由数据、演习和推理三个步骤组成的链条。
不过,在实践中,这一过程的迭代性更强,如蓝色箭头所示。

为了理解这一点,我们可以举几个例子。
例如,我们可能会网络一个模型的数据,然后考试测验对其进行演习。
在演习的过程中,我们会创造我们须要的数据量该当更多。
这意味着我们必须停息演习,回到数据步骤并获取更多数据。
我们可能须要重新处理数据,或者进行某种形式的数据扩增。
数据扩增就像是给数据洗面革心,从老一套中创造出新的面貌。
想象一下,你有一本相册,你想让它变得更有趣。
你把每张照片都复制了几份,但在每份副本中,你都做了一些小改动--大概你旋转了一张照片,放大了另一张照片,或者改变了另一张照片的光芒。
现在,你的相册有了更多的变革,但实际上你并没有拍摄任何新照片。
例如,如果你正在演习一个模特识别狗,你可能会水平翻转每张照片,然后把它也供应给模特。
或者,我们改变照片中狗的姿势,如下图所示。
就模型而言,这增加了数据集,但我们并没有到现实天下中去网络更多数据。

利用合成数据来演习机器学习模型可能会导致许多问题,因此能够证明数据的真实性在未来可能变得至关主要。

图 32:数据增强示例。
对原始数据点进行多点扩增,无需到天下各地网络更多独特的数据点

迭代的第二个更明显的例子是,当我们实际演习了一个模型,然后将其用于实践,即进行推理时,我们可能会创造模型在实践中表现不佳或存在偏差。
这意味着我们必须停滞推理过程,返回并重新演习模型,以办理这些问题,如偏差和证明。

第三个也是非常常见的步骤是,一旦我们在实践中利用模型(进行推理),我们终极会对数据步骤进行修正,由于推理本身会产生新的数据。
例如,想象一下建立一个垃圾邮件过滤器。
首先,我们要网络数据。
本例中的数据是一组垃圾邮件和非垃圾邮件。
当模型经由演习并用于实践时,我的收件箱中可能会收到一封垃圾邮件,这意味着模型犯了一个缺点。
它没有把它归类为垃圾邮件,但它便是垃圾邮件。
因此,当 Gmail用户选择 \"大众这封邮件属于垃圾邮件 \"大众时,就会产生一个新的数据点。
之后,所有这些新数据点都会进入数据步骤,然后我们可以通过多做一些演习来提高模型的性能。

另一个例子是,想象一个人工智能不才棋。
我们演习人工智能下棋所需的数据是大量棋局,以及谁赢谁输的结果。
但当这个模型用于实际下棋时,就会为人工智能天生更多的数据。
这意味着,我们可以从推理步骤回到数据,利用这些新的数据点再次改进我的模型。
这种推理和数据相连的想法适用于很多场合。

本节旨在让你对机器学习模型的构建过程有一个高层次的理解,这个过程是非常反复的。
它不像 \公众哦,我们只需获取数据,一次考试测验就能演习出一个模型,然后将其投入生产\"大众。

模型是不断更新的,因此不变的记录可能会给设计带来寻衅。

1.3 机器学习的类型

我们将先容三种紧张的机器学习模型。

监督学习:\"大众老师,教我方法\"大众无监督学习:\公众只需找到隐蔽的模式“强化学习:\"大众试一试,看什么有效\"大众

1.3.1 监督学习

\公众老师,教我方法\"大众

想象一下,你正在教孩子区分猫和狗。
你(对统统都管窥蠡测的老师)给他们看很多猫和狗的图片,每次都见告他们哪个是哪个。
终极,孩子们学会了自己辨别。
这险些便是机器学习中监督学习的事情事理。

在监督学习中,我们有大量的数据(比如猫和狗的图片),而且我们已经知道答案(老师见告他们哪个是狗,哪个是猫)。
我们利用这些数据来演习一个模型。
该模型会查看许多示例,并有效地学习模拟老师。

在这个例子中,每张图片都是一个原始数据点。
答案(狗或猫)被称为\公众标签\"大众。
因此,这是一个标签数据集。
每个数据点都包含一张原始图片和一个标签。

这种方法观点大略,功能强大。
在医疗诊断、自动驾驶汽车和股票价格预测中,利用监督学习模型的运用很多。

这种方法观点大略,功能强大。
在医疗诊断、自动驾驶汽车和股票价格预测中,利用监督学习模型的运用很多。

然而,可以想象,这种方法面临着许多寻衅。
例如,我们不仅须要获取大量数据,还须要标签。
这可能非常昂贵。
Scale.ai

(opens new window)

等公司在这方面供应了有代价的做事。
数据标注对稳健性提出了许多寻衅。
给数据贴标签的人可能会犯错,或者只是对标签有不同见地。
从人类网络的所有标签中,有 20% 无法利用的情形并不少见。

勉励机制和其他博弈论动态可能有助于提高开放数据集的质量。

1.3.2 无监督学习(Unsupervised Learning, USL)

\"大众只需找到隐蔽的模式\"大众

想象一下,你有一个装满各种水果的大篮子,但你并不熟习所有的水果。
你开始根据它们的外不雅观、大小、颜色、质地乃至气味将它们分类。
你不太清楚每种水果的名称,但你把稳到有些水果彼此相似。
也便是说,你在数据中创造了一些规律。

这种情形类似于机器学习中的无监督学习。
在无监督学习中,我们会给模型一堆数据(比如各种水果的组合),但我们不会见告模型每个数据是什么(我们不会给水果贴标签)。
然后,模型会检讨所有这些数据,并试图自己找出模式或分组。
它可能会根据水果的颜色、形状、大小或任何其他它认为干系的特色进行分组。
然而,模型找到的特色并不总是干系的。
这就导致了许多问题,我们将在第 2 章中看到。

例如,模型终极可能会将喷鼻香蕉和大蕉归为一组,由于它们都是长条形且呈黄色,而苹果和西红柿可能会被归为另一组,由于它们都是圆形且可能是赤色。
这里的关键在于,模型是在没有任何先验知识或标签的情形下找出这些分组的--它是从数据本身学习的,就像你根据可不雅观察到的特色将未知水果分到不同的组中一样。

无监督学习是许多盛行的机器学习模型的支柱,例如大型措辞模型(LLM)。
ChatGPT不须要人类通过供应标签来教它如何说每个句子。
它只需剖析措辞数据中的模式,并学会预测下一个单词。

许多其他强大的天生式人工智能模型都依赖于无监督学习。
例如,GAN(天生对抗网络)可用于天生人脸(纵然这个人并不存在)。
拜会 https://thispersondoesnotexist.com/(opens new window)

图 33:人工智能天生的图像来自 https://thispersondoesnotexist.com

图 34:第二张人工智能天生的图片来自 https://thispersondoesnotexis t.com

上面的图片是人工智能天生的。
我们并没有教这个模型\"大众什么是人脸\"大众。
它是在大量人脸的根本上演习出来的,通过奥妙的架构,我们可以利用这个模型天生看似真实的人脸。
请把稳,随着天生式人工智能的兴起和模型的改进,对内容进行验证变得越来越困难。

加密办理方案可以让我们追踪内容的来源,并以可扩展的办法让我们安全地利用天生式人工智能。

1.3.3 强化学习 (Reinforcement Learning, RL)

\"大众试一试,看什么有效 \"大众或 \"大众从试验和缺点中学习\"大众

想象一下,您正在教一只狗做一个新的动作,比如捡球。
每当狗狗做出靠近你想要的动作时,比如跑向球或捡起球,你就给它点心吃。
如果狗狗做了与此无关的事情,比如朝相反的方向跑,它就得不到食品。
逐渐地,狗狗创造捡到球就能得到美味的食品,以是它就会一贯这样做。
这基本上便是机器学习领域中的强化学习(RL)。

在RL中,你有一个打算机程序或代理(如狗),它通过考试测验不同的事情(如狗考试测验不同的动作)来学习决策。
如果代理做出了好的行为(比如捡球),它就会得到褒奖(食品);如果做出了不好的行为,它就得不到褒奖。
随着韶光的推移,代理会学会多做能得到褒奖的好事,少做不能得到褒奖的坏事。
从形式上看,这便是最大化褒奖函数。

最酷的地方在于:代理会自己通过试错找出这统统。
现在,如果我们想构建一个人工智能来下棋,那么人工智能最初可以随意考试测验走棋。
如果终极赢得了比赛,人工智能就会得到褒奖。
然后,该模型就会学会走更多的胜棋。

这可以运用于许多问题,尤其是须要连续决策的问题。
例如,RL方法可用于机器人与掌握、国际象棋或围棋(如 AlphaGo)以及算法交易。

RL方法面临许多寻衅。
其一,代理可能须要很永劫光才能\"大众学会\公众故意义的策略。
这对付学习下棋的人工智能来说是可以接管的。
但是,当人工智能开始采纳随机行动来不雅观察哪些行动有效时,你会把你的个人资金投入到人工智能算法交易中吗?或者说,如果机器人一开始会采纳随机行动,你会许可它住在你家吗?

图35:这是一些强化学习代理在演习过程中的视频:一个[真正的机器人](https://www.youtube.com/watch?v=n2gE7n11h1Y)和一个[仿照机器人](https://www.youtube.com/watch?v=hx_bgoTF7bs)

以下是每种机器学习的运用实例简述:

机器学习面临的寻衅

本章概述了机器学习领域的问题。
我们将有选择性地对该领域的某些问题展开。
这样做有两个缘故原由:1)简明扼要,全面概述该领域的寻衅并考虑到细微差别会导致报告非常冗长;2)在谈论与加密货币的交叉点时,我们将重点关注干系问题。
不过,本节本身只是从人工智能的角度撰写的。
也便是说,我们不会在本节谈论密码学方法。

本节所涉主题概述:

从偏见到可访问性,数据面临着巨大的寻衅。
此外,数据层面上存在恶意的攻击也会导致机器学习模型的误判。
当模型(如GPT-X)在合成数据上进行演习时,会发生模型崩溃。
这会对其造成不可逆转的危害。
标注数据可能非常昂贵、缓慢且不可靠。
根据不同的架构,演习机器学习模型会面临许多寻衅。
模型并行化带来了巨大的寻衅,例如通信开销。
贝叶斯模型可用于量化不愿定性。
例如:在进行推理时,模型会返回它的确定程度(如 80% 的确定性)。
LLM面临幻觉(hallucination)和演习困难等分外寻衅。

2.1 数据寻衅

数据是任何类型机器学习模型的关键。
不过,数据的哀求和规模因利用的方法而异。
无论是监督学习还是无监督学习,都须要原始数据(无标签数据)。

在无监督学习中,只有原始数据,不须要标注。
这就缓解了许多与标注数据集干系的问题。
然而,无监督学习所需的原始数据仍旧会带来许多寻衅。
这包括

数据偏差:当演习数据不能代表所要仿照的真实天下场景时,机器学习中就会涌现偏差。
这可能导致偏差或不公正的结果,例如面部识别系统在某些人口群体上表现不佳,由于他们在演习数据中的代表性不敷。
不屈衡的数据集:常日,可用于演习的数据在不同种别之间的分布并不屈衡。
例如,在疾病诊断运用中,“无病”案例可能比\"大众有病\"大众案例多得多。
这种不平衡会导致模型在少数民族/阶层上表现不佳。
这个问题与偏见不同。
数据的质量和数量:机器学习模型的性能在很大程度上取决于演习数据的质量和数量。
数据不敷或质量不佳(如低分辨率图像或喧华的音频录音)会严重影响模型的有效学习能力。
数据的可获取性:获取大型、高质量的数据集可能是一项寻衅,尤其是对付规模较小的机构或个人研究职员而言。
大型科技公司在这方面每每具有上风,这可能导致机器学习模型开拓方面的差距。
这是一项重大寻衅。
不过,众包数据集也会带来一些问题,比如数据质量的担保。
经济勉励和博弈论设计可以帮助创建开放的高质量数据集。
数据安全:保护数据免遭未经授权的访问并确保其在存储和利用过程中的完全性至关主要。
安全漏洞不仅会危害隐私,还会导致数据被修改,影响模型性能。
隐私问题:由于机器学习须要大量数据,处理这些数据可能会引发隐私问题,尤其是当个中包含敏感或个人信息时。
确保数据隐私意味着尊重用户赞许、防止数据透露以及遵守 GDPR 等隐私法规。
这可能非常具有寻衅性(见下文示例)。
在机器学习模型中,删除特定用户的数据(遵守GDPR)是一项非常具有寻衅性的事情。
与数据库不同,我们不能随便删除一个条款。
模型参数会根据供应的所有数据进行调度,因此在模型演习完成后删除特定用户的信息是非常困难的。

图 34: 数据隐私的一个分外问题源于机器学习模型的性子。
在普通数据库中,我可以有关于多人的条款。
如果我的公司哀求我删除这些信息,你只需从数据库中删除即可。
然而,当我的模型经由演习后,它持有险些全体演习数据的参数。
不清楚哪个数字对应演习中的哪个数据库条款

2.1.1 模型崩溃

在无监督学习中,我们要强调的一个分外寻衅是模型崩溃。

在本文中,作者进行了一项有趣的实验。
GPT-3.5 和 GPT-4 等模型是利用网络上的所有数据演习而成的。
然而,这些模型目前正在被广泛利用,因此一年后互联网上的大量内容将由这些模型天生。
这意味着,GPT-5 及往后的模型将利用 GPT-4 天生的数据进行演习。
在合成数据上演习模型的效果如何?他们创造,在合成数据上演习措辞模型会导致天生的模型涌现不可逆转的毛病。
论文作者指出:\"大众我们证明,如果我们要保持从网络上搜刮的大规模数据进行演习所带来的好处,就必须负责对待这一问题。
事实上,当从互联网抓取的数据中涌现由 LLM 天生的内容时,网络到的有关人类与系统之间真正交互行为的数据的代价将越来越大\公众。

这可能表明,环绕数据出处(追踪数据来源)的办理方案存在重大机遇。

图 35:模型崩溃示意图。
随着利用人工智能模型天生的互联网内容越来越多,下一代模型的演习集中很可能包含合成数据,如本文所示

请把稳,这种征象并非LLM所特有,它可能会影响各种机器学习模型和天生式人工智能系统(如变异自动编码器、高斯稠浊模型)。

现在,让我们来看看监督学习。
在监督学习中,我们须要一个贴有标签的数据集。
这意味着原始数据本身(一张狗的图片)和一个标签(\"大众狗\"大众)。
标签由模型设计者手动选择,可以通过人工标注和自动化工具相结合的办法得到。
这在实践中带来了许多寻衅。
这包括

主不雅观性:决定数据的标签可能是主不雅观的,从而导致模糊不清和潜在的伦理问题。
一个人认为得当的标签,另一个人可能会有不同的意见。
标签的差异:同一个人(更不用说不同的人)重复运行可能会供应不同的标签。
这就供应了 \公众真实标签 \"大众的噪声近似值,因此须要质量担保层。
例如,人类可能会收到一个句子,并卖力标注该句子的感情(\"大众快乐\公众、\"大众悲哀\公众......等)。
同一个人有时会给完备相同的句子贴上不同的标签。
这就降落了数据集的质量,由于它在标签中引入了差异。
在实践中,20% 的标签无法利用的情形并不少见。
想象一下,创建一个数据集来预测区块链上新协议的质量。
你很可能会得到一个范围很广的分数,这取决于你所选择的评分系统的次活动性,以及你所调查的人的见地差异。
缺少专家注释者:对付一个小众的医疗运用,人们可能很难得到大量故意义的标签数据。
这是由于能够供应这些标签的职员(医学专家)十分稀缺。
罕见事宜:对付许多事宜来说,由于事宜本身非常罕见,因此很难得到大量的标注数据。
例如,创造流星的打算机视觉模型。
高本钱:当试图网络大量高质量数据集时,本钱可能高得惊人。
由于上述问题,如果须要对数据集进行标注,本钱尤其高昂。

还有很多问题,比如应对对抗性攻击和标签的可转移性。
为了让读者对数据集的规模有一些直不雅观的理解,请看下图。
像 ImageNet这样的数据集包含1400万个标签数据点。

图 36:各种机器学习数据集的规模示意图。
Common Crawl的近似值为10亿个网页,因此总字数远远超过这个数字。
小型数据集(如 Iris)包含 150 幅图像。
MNIST 大约有 70,000 张图像。
请把稳,这是一个对数比例

2.1.2 强化学习中的数据网络

在强化学习中,数据网络是一项独特的寻衅。
与监督学习不同的是,监督学习的数据是预先标记好的静态数据,而强化学习则依赖于通过与环境互动而产生的数据,这常日须要繁芜的仿照或真实天下的实验。
这就带来了一些寻衅:

这一过程可能会耗费大量资源和韶光,对付物理机器人或繁芜环境而言尤其如此。
如果机器人在真实天下中接管演习,那么它从试验和缺点中学习可能会导致事件。
或者,也可以考虑让演习机器人通过试验和缺点来学习。
褒奖稀少且延迟:在收到故意义的反馈之前,代理可能须要探索大量的行动,从而难以学习有效的策略。
确保所网络数据的多样性和代表性至关主要;否则,代理可能会过度适应狭隘的履历集,而不能通用化。
在探索(考试测验新行动)和利用(利用已知的成功行动)之间取得平衡使数据网络事情更加繁芜,须要繁芜的策略才能有效网络有用的数据。

值得强调的一点是,数据网络与推理直接干系。
在演习一个强化学习代理下棋时,我们可以利用自我对弈来网络数据。
自我对弈就像是与自己下棋,以得到进步。
代理与自己的副本对弈,形成一个持续学习的循环。
这种方法非常适宜网络数据,由于它会不断产生新的场景和寻衅,帮助代理从广泛的履历中学习。
这一过程可以在多台机器上并行实行。
由于推理的打算本钱很低(与演习比较),这一过程对硬件的哀求也很低。
通过自我游戏网络数据后,所有数据都将被用于演习模型和改进模型。

闲置打算在分布式推理和数据网络中可以发挥强大浸染,由于对硬件的哀求比演习低得多。

2.1.3 对抗性数据攻击数据毒化攻击:在这种攻击中,通过添加扰动来毁坏演习数据,从而欺骗分类器,导致禁绝确的输出。
例如,有人可能会在非垃圾邮件中添加垃圾邮件元素。
这将导致将来在垃圾邮件过滤器的演习中加入这些数据时,性能低落。
这可以通过在非垃圾邮件高下文中增加 \公众free\"大众、\"大众win\公众、\"大众offer \"大众或 \公众token\"大众等词的利用来办理。
规避攻击:攻击者在支配过程中操纵数据,欺骗先前演习好的分类器。
规避攻击在实际运用中最为普遍。
针对生物识别验证系统的\"大众欺骗攻击 \公众便是规避攻击的例子。
对抗性攻击:这是对合法输入的修正,目的是愚弄模型,或者利用专门设计的\公众噪音\"大众来引起缺点分类。
请看下面的例子,在熊猫图像中添加噪音后,模型将其分类为长臂猿(置信度为99.3%)。

图 37:通过在熊猫图像中添加分外类型的噪声,模型可预先判断出图像是长臂猿而不是熊猫。
在进行对抗攻击时,我们向神经网络供应一幅输入图像(左图)。
然后,我们利用梯度低落法构建噪声向量(中)。
该噪声向量被添加到输入图像中,从而导致缺点分类(右图)。
(图片来源:本文图 1阐明和利用对抗性实例》论文中的图 1)

在创建开放数据集时,有必要建立一个强大的质量掌握层,以避免恶意攻击。
此外,数据出处(追溯图像来源)可能会有所帮助。

2.2 演习方面的寻衅

演习机器学习模型会面临许多寻衅。
本节绝不是为相识释这些寻衅的严重性。
相反,我们试图让读者理解寻衅的类型和瓶颈所在。
这将有助于建立直觉,从而能够评估将演习模型与密码原语相结合的项目构想。

请看下面这个无监督学习问题的例子。
在无监督学习中,没有 \"大众老师 \公众供应标签或辅导模型。
相反,模型会创造问题中隐蔽的模式。
考虑一个猫狗数据集。
每只猫狗都有两种颜色:玄色和白色。
我们可以利用一个无监督学习模型,通过将它们聚类为两组来找到数据中的模式。
该模型有两种有效的方法:

将所有狗集中在一起,将所有猫集中在一起将所有白色动物集中在一起,将所有玄色动物集中在一起。

请把稳,从技能上讲,这两者都没有错。
模型找到的模式很好。
然而,要完备按照我们的哀求来勾引模型是非常具有寻衅性的。

图 38:演习好的对猫和狗进行分类的模型终极可能会根据颜色将动物聚类在一起。
这是由于在实践中很难辅导无监督学习模型。
所有图像均由人工智能利用 Dalle-E 天生

这个例子解释了无监督学习所面临的寻衅。
然而,在所有类型的学习中,能够评估模型在演习过程中的学习效果并进行潜在干预至关主要。
这可以节省大量资金。

在无权限系统中,模型的演习无需专家监督,因此可能会摧残浪费蹂躏大量资源。
处理早期停滞等问题的自动化工具还很不成熟。

演习大型模型的寻衅还有很多,这是一个非常简短的清单:

演习大规模机器学习模型,尤其是深度学习模型,须要大量的打算能力。
这常日意味着要利用高端 GPU 或 TPU,而它们可能既昂贵又耗能。
与这些打算需求干系的本钱不仅包括硬件,还包括连续运行这些机器(有时长达数周或数月)所需的电力和根本举动步伐。
强化学习因其演习的不稳定性而有名,模型或演习过程中的眇小变革都可能导致结果的显著差异。
与Adam等监督学习中利用的更稳定的优化方法不同,强化学习中没有放之四海而皆准的办理方案。
常日须要对演习过程进行定制,这不仅耗时,而且须要深厚的专业知识。
强化学习中的探索-开拓两难问题使演习变得更加繁芜,由于找到精确的平衡点对付有效学习至关主要,但却很难实现。
机器学习中的丢失函数定义了模型的优化目标。
选择缺点的丢失函数会导致模型学习到不恰当或次优的行为。
在繁芜任务中,例如涉及不平衡数据集或多类分类的任务,选择、有时乃至定制设计精确的丢失函数变得更加主要。
丢失函数必须与运用的实际目标紧密结合,这就须要深入理解数据和预期结果。
在强化学习中,设计能持续、准确反响预期目标的褒奖函数是一项寻衅,尤其是在褒奖稀少或延迟的环境中。
在国际象棋游戏中,褒奖函数可以很大略:赢了得 1 分,输了得 0 分。
但是,对付行走机器人来说,这个褒奖函数可能会变得非常繁芜,由于它将包含 \"大众面向前方行走\"大众、\"大众不要随意摆动手臂 \"大众等信息。
褒奖函数(和丢失函数)包含了模型去符号化者认为主要的主不雅观成分。
可能有必要建立管理制度,以确保为广泛利用的模型选择适当的函数。
在监督学习中,由于深度神经网络的 \"大众黑箱 \公众性子,要理解是哪些特色驱动了繁芜模型(如深度神经网络)的预测具有寻衅性。
这种繁芜性使得调试模型、理解其决策过程和提高其准确性变得十分困难。
这些模型的繁芜性也对可预测性和可阐明性提出了寻衅,而这对在敏感或受监管领域支配模型至关主要。

同样,演习模式和所涉及的寻衅也是非常繁芜的话题。
我们希望上述内容能让您对所涉及的寻衅有一个大致的理解。
如果您想深入理解该领域当前面临的寻衅,我们推举您阅读《运用深度学习中的开放性问题》(Open Problems in Applied Deep Learning)和《MLOps 指南》(MLOps guide)。

从观点上讲,机器学习模型的演习是按顺序进行的。
但在很多情形下,并行演习模型至关主要。
这可能只是由于模型太大,一个 GPU 难以容纳,并行演习可以加快演习速率。
然而,并行演习模型会带来重大寻衅,包括

通信开销:将模型分割到不同的处理器须要这些单元之间不断进行通信。
这可能会造成瓶颈,尤其是对付大型模型而言,由于各单元之间的数据传输可能会耗费大量韶光。
负载均衡:确保所有打算单元得到平等利用是一项寻衅。
不平衡会导致一些单元闲置,而另一些单元超负荷运行,从而降落整体效率。
内存限定:每个处理器单元的内存都是有限的。
在不超出这些限定的情形下,有效管理和优化多个单元的内存利用情形是非常繁芜的,尤其是大型模型。
履行的繁芜性:设置模型并行涉及打算资源的繁芜配置和管理。
这种繁芜性会增加开拓韶光和出错的可能性。
优化困难:传统的优化算法可能无法直接适用于模型并行化环境,也无法提高效率,这就须要进行修正或开拓新的优化方法。
调试和监控:由于演习过程的繁芜性和分布性增加,监控和调试分布在多个单元上的模型比监控和调试运行在单个单元上的模型更具寻衅性。
分散和并行演习方面的基本新方法可以极大地推动机器学习的进步。

2.3 推理中的寻衅

许多类型的机器学习系统面临的最主要寻衅之一便是它们可能会\"大众自傲地出错\"大众。
ChatGPT可能会返回一个我们听起来很有把握的答案,但事实上这个答案是缺点的。
这是由于大多数模型经由演习后都会返回最有可能的答案。
贝叶斯方法可用于量化不愿定性。
也便是说,模型可以返回一个有根据的答案,来衡量它有多确定。

考虑利用蔬菜数据演习图像分类模型。
该模型可以获取任何蔬菜的图像,并返回它是什么,例如 \"大众黄瓜 \公众或 \"大众红洋葱\"大众。
如果我们给这个模型输入一张猫的图像,会发生什么呢?普通模型会返回它的最佳预测,大概是 \"大众白色洋葱\"大众。
这显然是禁绝确的。
但这是模型的最佳预测。
贝叶斯模型的输出则是 \公众白色洋葱 \公众和一个确定度,例如 3%。
如果模型有 3% 的确定性,我们可能就不应该根据这个预测采纳行动。

图 39:常规模型预测(只返回最有可能的答案)和贝叶斯模型预测(返回预测结果的 s 分布)的示意图

这种形式的不愿定性定性和推理在关键运用中至关主要。
例如,医疗干预或金融决策。
然而,贝叶斯模型的实际演习本钱非常高,而且面临许多可扩展性问题。

推理过程中涌现的更多寻衅

掩护:随着韶光的推移,尤其是数据和现实天下场景发生变革时,保持模型的更新和正常运行。
RL 中的探索-利用:在探索新策略和利用已知策略之间取得平衡,尤其是在推理直接影响数据网络的情形下。
测试性能:确保模型在新的、未见过的数据上表现良好,而不仅仅是在演习过的数据上。
分布偏移:处理输入数据分布随韶光发生的变革,这种变革会降落模型性能。
例如,推举引擎须要考虑客户需求和行为的变革。
某些模型天生缓慢:像扩散模型这样的模型在天生输出时可能须要大量韶光,而且速率较慢。
高斯过程和大型数据集:随着数据集的增长,利用高斯过程进行推理的速率会越来越慢。
增加防护栏:在生产模型中履行制衡方法,防止涌现不良结果或误用。
在封闭源模型中增加哪些防护方法,这对付确保不涌现偏差至关主要。

2.4 LLM 面临的寻衅

大型措辞模型面临许多寻衅。
不过,由于这些问题受到了相称多的关注,我们在此仅作简要先容。

LLM 不供应参考文献,但可以通过检索增强天生(RAG)等技能来缓解没有参考文献等问题。
幻觉:产生无意义、虚假或无关的输出。
演习运行须要很永劫光,而且数据集重新平衡的边际值很难预测,这就导致了缓慢的反馈循环。
很难将人类的基本评估标准扩展到模型所许可的吞吐量。
量化在很大程度上是须要的,但其后果却鲜为人知。
下贱根本举动步伐须要随着模型的变革而变革。
在与企业互助时,这意味着永劫光的发布延迟(生产总是远远掉队于开拓)。

不过,我们想重点先容论文《沉睡代理:演习通过安全演习持续存在的欺骗性 LLMs》一文中的一个例子。
作者演习的模型会在提示年份为 2023 年时编写安全代码,但在提示年份为 2024 年时插入可被利用的代码。
他们创造,这种后门行为可以持续存在,因此标准的安全演习技能无法将其打消。
这种后门行为在最大的模型中最持久,在经由经演习产生思维链路以欺骗演习过程的的模型中也最持久,乃至就算思维链路已经消逝也一贯存在。

图 40 后门示意图。
如果是 2024 年,模型的演习表现为 \"大众正常\"大众,但如果是 2024 年,则策略表现不同。
资料来源:本文图 1

模型演习过程的透明度至关主要,由于纵然是开源模型,也可能被演习出只在特定情形下利用的后门。
例如,想象一下,将一个有资金的钱包连接到一个人工智能代理,结果却创造了一个后门。
然后,这个代理就会将所有资金转移到一个特定的地址,或者以不同的身份恶意行事。

在本章中,我们谈论了机器学习领域的许多寻衅。
显而易见,研究的巨大进步办理了许多此类问题。
例如,根本模型为演习特定模型供应了巨大上风,由于您只需根据利用情形对其进行微调即可。
此外,数据标注不再是全手工过程,利用半监督学习等方法可以避免大量的人工标注。

本章的总体目标是先让读者对人工智能领域的问题有一些直不雅观的理解,然后再磋商人工智能与密码学的交叉问题。

报告外读物3.1.1 Gensyn

网站:https://www.gensyn.ai/(opens new window)

一句话简介:去中央化机器学习打算协议,实现人工智能开拓民主化。

描述:旨在通过将环球所有打算能力整合到一个环球超级集群中,彻底改变人工智能和加密货币领域。
该网络专为机器学习打算协议设计,任何人都可以随时访问,从而推动机器学习的发展。
通过利用区块链技能,Gensyn实现了人工智能演习过程的去中央化,许可点对点、低本钱高效率地访问打算资源。
这就肃清了对云寡头和大型科技公司的依赖,为人工智能开拓供应了一个更加民主和无容许的环境。
Gensyn的协议使天下各地的设备(包括未充分利用的硬件)都能为去中央化打算网络做出贡献,为任何人、任何地方都能实现人工智能潜力的未来铺平了道路。
简短描述什么是数据种别中的公司,最好利用第 2 章中的框架进行细分。

3.1.2 Axiom

网站:https://www.axiom.xyz/(opens new window)

一句话简介:Axiom利用零知识证明,实现对以太坊历史的无信赖链上查询和打算,适用于数据丰富的动态的去中央化运用。

描述:为人工智能和加密货币的交叉领域铺平了道路,它使开拓职员能够在以太坊上创建智能合约,这些合约可以通过零知识(ZK)证明对区块链数据的全体历史进行访问和打算。
这一点至关主要,由于它为动态DeFi运用、定制化的预言机和链上忠实度操持开辟了新的可能性,许可协议根据历史链上活动进行调度,而无需依赖外部预言机或修正已支配的合约。
此外,该协议还旨在将 ZK 技能用于人工智能运用,例如通过确保数据完全性和无信赖打算,Axiom可以验证在线内容并检测深度假造。
这使得Axiom成为以太坊大将来安全、数据丰富运用的关键参与者,利用人工智能和加密货币的上风,创建一个更加透明、高效和用户驱动的生态系统。