《武汉大学学报(哲学社会科学版)》
2019年第72卷第5期哲学刊文
DOI:10.14086/j.cnki.wujss.2019.05.006
哲学园鸣谢
如何在通用人工智能系统中实现
“知识锁定标杆浮动效应”
——一种基于“韶光压力”的大略单纯心智模型
徐英瑾
择要:所谓“知识锁定标杆浮动效应”,是指面对同样的信念内容,认知主体会在某些环境下将其剖断为“知识”,而在另一些环境下将其剖断为“异常识”。该效应的存在,使得人类能够根据环境信息的变革,灵巧地改变自身信念,更好地适应环境。人工智能体对付该效应机制的仿照,也能够更好地适应环境。不过,这种仿照必须建立在对付该效应的精确理解上,而西方主流知识论学界对付该效应的阐明,如语境主义、比对主义与不变主义提出的阐明,要么缺少足够的普遍性,要么本身建立在一些有待阐明的观点上。与之比较较,基于“韶光压力”的模型,则将智能体的知识指派方向的强度视为与其感想熏染的韶光压力彼此负干系的一项成分,而“韶光压力”本身被视为“主体所预估的问题办理所须要的韶光”与其“所乐意付出且能够付出的韶光”之间的差值。这样的模型不仅能够对所谓的“银行案例”与“斑马案例”作出简洁的阐明,而且在原则上可以被算法化。
关键词:通用人工智能;韶光压力;知识锁定标杆浮动效应;比对主义;语境主义;不变主义;固知需求
基金项目:国家社会科学基金重大项目(15ZDB020)
在盖提尔问题(Gettier Problem)被提出往后,英美剖析哲学的主流知识论剖析有日渐噜苏化的嫌疑,让外行人很难知道这些研究的意义。本文的一个紧张动机,是试图在一个特定的知识论研究课题与公众年夜众所关心的话题之间搭建桥梁,以便肃清剖析哲学的学院化研究和非哲学"大众年夜众的普遍关涉之间的专业壁垒。笔者选择的这个公众性话题便是人工智能研究,与之配套的知识论课题是“知识锁定标杆浮动效应”。将二者联系在一起的深层动机是:笔者希望人工智能基于人类用户实践需求的编程作业,能够倒逼我们去考验那些在书斋里所想出来的知识论理论的“可操作性”,使得一些不符合这些哀求的哲学空想有机会被打消掉,而另一些表示这些哀求的哲学选项能够浮现并得以发展。
一、“知识锁定标杆浮动效应”概说及其算法化的必要性
人工智能的主要性与其对人类生活的重大代价,显然是不须要加以特殊解释的。这里所说的“知识锁定标杆浮动效应”是什么意思呢?这个略显繁芜的名词表达式,乃是笔者对付西方知识论文献中常常涌现的“epistemicshift”(直译为“认知浮动”)一词组的阐释性翻译。它指的是这样一种日常征象:面对同样的一个命题P,人们会在某些情形下说“我知道P是真的”,而在某些情形下会说“我未必知道P是真的”。譬如,在所谓的“斑马案例”[1](P1007–1023)中,如果你仅仅看到面前有一匹斑马走过而心无旁念,你就会很自然地说“我知道那是一匹斑马”;而当有人见告你这家动物园里的很多所谓斑马实在是被涂抹了白条子的驴之后,你若再看到一匹斑马,你就会说“我并不愿定那是不是真斑马”。与之类似,在所谓的“银行案例”[2](P913–929)中,如果你银行卡里的存钱充裕,不担心信用卡扣款会导致银行卡欠费,那么,只要你能凭影象想起嫡是本月银行还款的末了期限,那么,你就足以判断出:我的确知道嫡是本月银行还款的末了期限。相反,如果你银行卡里没什么存钱,但你的欠账数额却颇为可不雅观,纵然你能凭借影象想起嫡是本月银行还款的末了期限,你也会方向于认为你得反复核查这一影象是否准确——由于你无法承担一旦没有及时还款而导致银行卡被冻结的严重后果。换言之,将若何的信念锁定为“知识”的活动,其标杆乃是随着输入心智机器的信息的变革而变革的,而并非单方面地取决于信念自身的字面语义。“知识锁定标杆浮动”,便是对付上述征象的一种概括。
在我们切入这一征象的阐明之前,不妨先来看看这一征象的存在对付人类日常生活的意义。若我们将西方知识论学界关于“知识”的各类繁杂定义加以搁置,而仅仅诉诸普通人对付“知识”一词的语义直觉,那么至少我们能大略地说:在日常生活中,“知识”常常是指人类信念系统中相对稳固的那部分,而“信念”则是指人类信念系统中其真值可以被更自由地加以变更的部分。很明显“,信念”与“知识”之间的界线对付人类认知活动正常展开是具有主要意义的:一方面,如果所有的信念都能被还原为知识的话,那么,我们就即是自废了“根据新履历调度既有信念系统”的武功,失落去对付环境变革的适应能力;另一方面,如果我们将所有的知识还原为信念的话,我们就得随时准备搜集正例与反例来验证或证伪我们所具有的统统信念,这样一来,我们的信念系统就无法具有最少的稳定性,我们无法以最少的可预期性与天下打交道。进而言之,我们人类不但须要“信念”与“知识”之间的界线具有最少的稳定性,而且须要“知识锁定标杆浮动”这一效应使得该界线不那么僵去世。也便是说,我们须要在某些条件下调高该标杆的高度,以使得一部分某些原来的知识成为信念,或反之,使得我们的信念——知识系统自身的构造特色能够随着环境的变革而得到改动。很明显,通用人工智能º的研究者,也须要在人造的推理系统中实现这种“知识锁定标杆浮动”效应。譬如,一台在野生动物园中巡逻的机器人,应该在常日情形下将任何被摄像头所捕捉的斑马视为真正的斑马,由于毫无必要的反复疑惑将摧残浪费蹂躏系统的运作资源,影响系统的运作效率;而当其被奉告野生动物园中的某些斑马是伪装的驴子的时候,该机器人就须要搜集更多的证据,来查验看到的“斑马”是不是真斑马。
不过,要在现有的主流人工智能研究中仿照这种效应,是非常困难的,由于主流的人工智能要么只能以公理化的办法一劳永逸地将人类知识的一部分锁定为“知识”,如海耶斯的“朴素物理学”方案所做的那样[3](P248-280),要么只能通过一个人工神经元深层网络来片面地仿照人类将一类低阶层信息识别为一类高阶层信息的归类活动。二者都无法根据不同的认知条件自主地调度知识锁定标杆之高低。这到底是为什么呢?对此,笔者的一个阐明是:知识锁定标杆浮动效应实在是一个生理学征象,除非我们有一个关于此征象的大略单纯心智模型,我们是无法在人工智能系统中重演此征象的。但主流的人工智能研究要么知足于在符号表征的层面上展列人类知识的静态外不雅观,要么知足于在非常局部的意义上仿照人类神经元系统的活动办法,却基本上没有考试测验在足够得当的尺度上仿照与知识锁定标杆浮动效应干系的心智机制。因此,在这个问题上,人工智能的事情须要生理学与哲学的深度参与。
既然提到了哲学,人工智能专家是不是还特殊须要关注作为哲学分支之一的知识论对付“知识锁定标杆浮动效应”的谈论成果呢?笔者所给出的答案恐怕会有点悲观。笔者认为,西方知识论学界所积累的大多数对付此类效应的谈论成果,参考代价有限,它们阐明自身所牵扯的预设都过于繁芜了,都过具“特异性”了。与之比较照,笔者所给出的基于“韶光压力”的解释方案既大略文雅,又具有被算法化的潜力,足可与之争雄。
不过,考虑到对付“知识锁定标杆浮动效应”的解释一向被视为西方知识论学界的自留地,纵然对这些主流见地抱有批评,笔者也有必要先将自己的批评见地陈设出来。
二、西方主流知识论学界对付“知识锁定标杆浮动效应”的解释及其疏失落
严格地说,既然知识论研究的核心话题之一是信念与知识之间的关系,那么,如何阐明涉及这一关系的“知识锁定标杆浮动效应”,也就自然引发了西方知识论学界的诸多重磅级人物为之殚精竭虑。笔者根据自己未必完备的文献阅读履历,将西方学界对付该效应的各类解释方案,大致分为两类:
第一类,“知识”的语义标准会随着语境的不同而浮动,由此造成“知识锁定标杆浮动效应”被归类到这个解答思路下的有“语境主义”(contextualism)[2](P913–929)和作为其理论亲戚的“比对主义”(contrastivism)[4](P73–103)。语境主义的大意是:常日的语境会导致我们关于什么是“知识”的语义标准坚持在一个较低水平,而在疑惑论的语境中,比如在你被奉告你看到的每一匹斑马都有可能是伪装的驴的情形下,该标准则会被提高。正由于这种提高,我们才方向于在疑惑论的语境中谢绝将目标信念归类为货真价实的知识。
比对主义的大意是“:知道”这个动词本身的句法构造并不是常日以是为的“S知道P”,而是“S知道P而非Q”,而这里的“Q”便是所谓的“比对项”,只管它在日常言谈中未必会被明说。根据比对主义的立论,在日常环境中,像“我知道那是一匹斑马”这样的句子就应该被改写为“我知道那是一匹斑马,而非一头长颈鹿”,“而非”后面的比对项在日常表达中被省略。与之相较,在疑惑论语境中,对付“而非”后面的比对项的省略却成为不可容忍之事了。说得更清楚一点,正好是疑惑论语境中比对项(如“被精心伪装成斑马的驴”)与被比对项(如“驴”)之间在征象层面上的靠近,才使得对付被比对项的明说显得具有某种不可或缺的代价。由于二者是如此靠近,关于“知识”的标准在此类语境中也被提高了,由此导致主体在知识指派过程中的踟蹰。
第二类,“知识”的语义标准不会随着语境的不同而浮动,而造成“知识锁定标杆浮动效应”的,另有其因。在文献中此类态度统称为“不变主义”(invariantism),也便是“不承认语义标准会改变”。支持不变主义的情由是非常明确的,即倘若关于“知识”的语义标准常常改变,那么,语义学和语用学之间的界线也就不存在了。但这一理讲价值显然过于沉重,会使得辞典编纂业毫无意义,由于辞典编纂者必须预设语词的语义是相对稳定的,由此,我们便可反推出“知识”的语义标准不会变。然而,“知识锁定标杆浮动效应”毕竟是存在的,既然该效应不是由语义标杆的改变所导致的,其成因又是什么呢?对此,“基于短长的不变主义”与“智性不变主义”提出了两种不同的解答。“基于短长的不变主义”(stake-based invariantism)[5]的含义是:信念所带来的潜在后果对主体所产生的“短长”的不同,会导致主体产生不同的关于知识标准的语用直觉。详细而言,正如我们在“银行案例”中所看到的,在缺点的判断或许会导致主体丢失巨大的情形下,主体对付判断的内容的“知识化”会持比较谨慎的态度,而在缺点的判断纵然发生也不会导致主体丢失的情形下,主体对付判断内容“知识化”就会持相对宽松的态度。考虑到“短长”是语用成分的一部分,而不是语义成分的一部分,这种理论既阐明了“知识锁定标杆浮动效应”,又没有导致对付“知识”的语义标杆的稳定性的威胁。“智性不变主义”(intellectual invariantism)[6](P279–294)的阐明则是这样的:不同的认知条件会匆匆发主体内部一个叫“固知需求”(need-for-closure)的生理参数的变革,“固知需求”在此指的是主体将特定信念内容固化为知识的生理学需求[7](P263–283)。详细而言,在某些语境中(比如短长成分被凸显的语境),为了防止过于急匆匆地将某些信念划归为知识导致利益受损,主体的“固知需求”参数被调低,主体内部的“知识”标杆被提高;而在某些语境(比如在短长关系不那么被强调的语境)中,为了节省系统的运作效率,主体的“固知需求”参数被调高,主体内部的“知识”标杆被降落。由于“固知需求”表示的是主体的生理要素,而不是“知识”的语义特色,因此,“智性不变主义”并未导致对付“知识”的语义标杆稳定性的威胁。
如果通用人工智能专家试图建造一台“知识锁定标杆浮动效应”推理机器,他究竟应该从上述知识论理论中的哪一种得到启示呢?答案是:没有。情由是:通用人工智能系统的设计须要某种统一的算法解释,以便应对各种须要,仿照“知识锁定标杆浮动效应”的繁芜环境,但上面给出的所有理论都是为了应对特定的问题被硬凑出来的,过具“特设性”了。此外,这些方案本身又预设了大量难以在一个统一的方案中被算法化的哲学直觉,这些哲学直觉可能引发的哲学迷惑,恐怕要比这些方案试图办理的哲学迷惑更为严重。下面分头阐述这些既有方案的毛病。
第一,对付语境主义的批评。语境主义的最大麻烦,是如何解释在疑惑论的语境中“知识”的语义标准会提高。主流的处理办法是引入“可能天下语义学”的观点框架。按照该观点框架,任何一种现实情形都有一些可能的情形与之相伴,如“特朗普当选美国总统”这一现实天下的周围,就伴随有“特朗普竞选美国总统失落败”这一可能天下,而可能天下之间,也由于每一可能天下与现实天下相似性程度的不同,导致彼此之间不同的间距,比如,“特朗普竞选美国总统失落败”这一可能天下,就比“特朗普从未参加总统竞选”这一可能天下,更靠近现实天下。至于这些“可能天下”究竟是在玄学意义上实际存在的外部工具,还是人类生理的主不雅观建构物,在知识论谈论中可以暂且不论。那么,这套话语框架又怎么与语境主义的理论相互结合呢?详细而言,在语境主义者看来,如果疑惑论的语境被引入的话,那么,在那些与现实天下最近的可能天下中,原来在现实天下中能够被视为知识的目标信念的内容就不再是知识了,由于主体对付这些贴近的可能天下的意识导致了“知识”语义标准的调高。譬如,在“斑马案例”中,主体虽然看到了面前的斑马,但意识到一个与现实天下很靠近的可能天下中,斑马或许是被人精心伪装过的驴子,主体就会方向于不急着对关于斑马的知觉信念进行知识指派。反之,如果疑惑论的语境没有被引入的话,主体就不会意识到那些虽然与现实天下靠近却会导致目标信念不再为真的可能天下,也就会在这种情形下更轻易地作出知识指派。站在人工智能研究的态度上看,这一处理方案的最大问题是预设了诸可能天下是可以被一个个切分开来谈论的,乃至还可以评论辩论它们彼此之间的远近。且不提在玄学文献里对付“可能天下”之本体论地位的大量争议,便是仅仅在认知建模的范围内谈论可能天下的个体化与它们之间间距的丈量办法,也是让人难以下手的。对付此类困难性,下面这个论证就能轻易揭示。
1.如果我们抱着最大的诚意去理解可能天下的可切分解标准与它们之间间距的丈量原则,便只能说这些原则只是“干系性”观点导致的理论衍生物罢了。说得更清楚一点,主体会根据哪些考量与当下的目标信念干系,去决定如何切分出一个与现实天下不同的可能天下,并决定如何丈量某一可能天下与当来世界之间的间隔。譬如,在肯定现实天下中“凡是貌似斑马的动物皆为斑马”的情形下,我们之以是将“貌似为斑马的动物实为被伪装的驴”视为一个贴近的可能天下,而不认为“貌似为驴的动物都是被伪装的骡子”是一个贴近的可能天下,便是由于后一状况与谈论的主题(斑马)不干系。
2.上述案例提到的“干系性”本身是一个非常模糊的观点,非常“特设”。
3.在主流人工智能研究中,对付具有特设性的“干系性”的刻画依然是一个难点,而这一问题又与“框架问题”这一公认的难题相互纠葛,使其难上加难。
以是,从上面三点我们就不难推出:语境主义的方案很难被转化为一个得当的算法化模型。
第二,对付比对主义的批评。作为语境主义的变种,比对主义面临的问题是:该方案的履行,哀求我们在任何一个语境中,都要找到“比对项”的详细内容,但这一哀求本身就强人所难。譬如,当我们仅仅想说“我看到的是斑马”的时候,究竟这句话应该被拓展为“我看到的是斑马,而不是犀牛”呢,还是应该被拓展为“我看到的是斑马,而不是水牛”呢?很显然,在大多数情形下,我们通过“我看到的是斑马”这一语所表达出来的意思,并没有牵扯到犀牛或者水牛。此外,从其余一个方向发起的对付比对主义的批评,恐怕也会让后者感到难以招架:凭什么我们不能一条道走到黑,认为“比对项”不止两个呢?譬如,为何我们不能说“我看到的是斑马,而不是犀牛,也不是水牛,也不是……”呢?笔者看不出比对主义将如何在不去诉诸某些具有特设性的直觉下,通过某种具有算法化潜力的普遍性解释框架去回答这些疑问。
第三,对付基于短长的不变主义的批评。不变主义面临的第一个问题是,难以覆盖对付“斑马案例”的谈论,只管它貌似可以应对“银行案例”。如果一个人陷入诸如“世上所有的斑马实为被伪装的驴”的疑惑论陷阱,那么,这与他的个人短长有何关联?要知道,以疑惑论思考为范例表现形式的哲学思考,就其本性而言就有一种“非功利性”。其余,如果我们将科学知识也纳入谈论范围的话,短长与知识指派之间的关系就会更不清楚了。譬如,纵然我见告你,你对下列科学问题回答精确与否,将严重影响你的年终奖,你也不会以为将“知识”这一标签贴给“氧气分子有2个氧原子”这个信念,会有多大的困难——与之相对照,纵然我见告你,你就算是答错了下列的科学问题,也不会影响你的年终奖,恐怕你也会对如何确定下述信念的真假感到踟蹰,此信念即:苯乙烯分子里有8个氢原子(在这里笔者假设被测试者不是职业化学家,且不能上网查资料)。而且,纵然就“银行案例”这样的明显牵扯到利益问题的案例而言,基于短长的不变主义的解释要被算法化,也须要预先给出一个如何打算“短长”的一样平常化模型。关于此问题,很随意马虎想到的办理方案乃是诉诸决策论专家萨福奇所提出的方案[8]:打算主体在所有方向上的决策具有的所有可能后果带来的好处,从中挑选出最优方案。但正如罗斯与施罗德所指出的[9](P259-288),实行这样的方案打算本钱巨大,这样的打算方案依然无法度量不同向度上的利益大小,比如在“博名”之利与金钱实利之间进行度量——除非去矫揉造作地质询被研究确当事人,以试探其乐意用多大的筹码置换某种非物质利益,但这一做法缺点地预设了我们总是有韶光与资源去进行这样的生理学实验。从通用人工智能系统设计的角度看,如果广泛被利用于经济学的决策论能够用于设计具有“知识锁定标杆浮动效应”推理机器,那么此类事情应该早就成功了,由于决策论并不是人工智能专家绝不熟习的领域。但现实正好是:这样的推理机器还没有造出来。由此我们就不难反推出来:要么是基于利益的不变主义是错的,要么是它缺少合理的工程学实现手段。
第四,对付智性不变主义的批评。智性不变主义的核心要点是援引“固知需求”这齐心专生理学观点,阐明人类的“知识锁定标杆浮动效应”。笔者认为,在西方主流的知识论文献对付该效应的阐明路径中,该阐明的合理性程度是最高的,由于该阐明与生理建模的关系最为密切,从科学角度看,也彷佛“最接地气”。但笔者对该理论依然有批评。在笔者看来,像“固知需求”这样的一个观点,就像诸如“锚定效应”“框架效应”这样的生理学观点一样,乃是生理学家根据自己的一些生理学创造而临时制造出来的概括工具,阐明力有限。说得不客气一点,用“固知需求”的变革去阐明“知识锁定标杆浮动效应”,就像用“赢利需求”的变革去阐明某人所赚取的人为外收入的数量变革一样,没有见告听众太多有用的信息。此外,我们依然不知道这个观点所覆盖的,究竟是一组彼此不同的心智机器所共同导致的某些彼此类似的征象聚合,还是某类自成一体的生理征象。从生理学文献上看,我们颇有情由疑惑答案是前者,由于诸如“韶光压力”“主体的疲倦程度”“背景噪音”等成分,都被生理学家和智性不变主义者列举为“固知需求”背后的成因[6](P287–288)。在这种情形下,“固知需求”自身在机制上的统一性就非常成疑。由此看来,智性不变主义对付干系的生理学观点的援引过于直接,缺少后续的“哲学打磨与抛光”,难以知足哲学研究对付普遍性与可阐明性的理论须要。此外,乃至通用人工智能研究者也不宜将诸如“固知需求”这样的生理学观点直接引入自身的工程学建构,由于一种具有最少统一性的心智建模事情,必须预先追问生理征象背后的统一机制成因。由此看来,要铸造一个新的、并对通用人工智能研究具有辅导意义的“知识锁定标杆浮动效应”的阐明平台,我们须要另辟路子。笔者的进路是诉诸“韶光压力”观点。这个观点曾被智性不变主义者列为导致“固知需求”的成分之一,但在笔者看来,它的地位必须被提升,才会对“知识锁定标杆浮动效应”产生某种更广泛的阐明力。
三、“韶光压力”概说
在详细对“韶光压力”建模之前,我们可以暂时知足于对付该观点的一种直觉性阐述。所谓韶光压力,即一个主体在面对一项(或多项)任务时,感到自己主不雅观上乐意投入且能投入的韶光,要少于他所预估的用以办理干系问题所须要的客不雅观韶光。我们可以形象地将这种情形称为“韶光赤字”。请把稳,当事人所预估的办理问题须要的“客不雅观韶光”,可能并非是办理该问题所须要的真正的客不雅观韶光。若情形相反,即他手头所乐意挤出来的、且能挤出的韶光多于他所预估的用以办理该任务所须要的韶光,那么,他就不会感到韶光压力,而会感到韶光上的空隙,我们可以形象地将这种情形称为“韶光盈余”。现在我们不妨假设韶光压力值的大小,与知识指派的难度呈负干系关系。也便是说,韶光赤字越大,知识指派越难,反之亦然。在笔者看来,仅仅依赖这样一种貌似粗糙的关于韶光压力的阐述,我们就能比主流的知识论理论更简洁地阐明“银行案例”与“斑马案例”。大致阐明思路如下:
1.关于“银行案例”。先假设你银行借记卡里的钱足够自动偿还你在信用卡上欠下的钱。如果你被问及“本月26日是不是银行还款的末了期限”,那么,你就会根据“上个月的银行还款日期也是26日”这一信息,归纳出“本月26日的确是银行的还款日期”,并认为你知道这一点。由于这项归纳任务非常大略,以是在你看来,办理该任务所须要的韶光与你能供应、且愿供应的韶光之间,差值很小,你就不会感到韶光压力。在这种情形下,你也不会感到知识指派的任务有多难。那么,假设你银行借记卡里存的钱,远远不敷以偿还你在信用卡上欠下的钱,如果你在这种情形下被问及“本月26日是不是银行还款的末了期限”,你是不是也会根据“上个月的银行还款日期也是26日”这一信息,归纳出“本月26日的确是银行的还款日期”这一点呢?这就难说了。假设这时候其余一个想法涌入你的头脑:“这家银行最近做了系统调度,有可能上个月的还款日子和本月不同”,那么,你又该如何根据这一新信息来确定本月26日是不是银行的还款日期呢?一样平常人的直觉反应是:在这样的情形下,当事人应该更难确定他是否知道本月26日是不是银行的还款日期。笔者提出的基于韶光压力的阐明模型,能够立即阐明为何我们有这直觉。很明显,如果当事人的信念是两个,即“上月银行还款日是26日”“银行的还款日设置办法或许会由于最近的系统调度而变革”,那么,两个信念的抵牾会导致逻辑学家所说的“非单调推理”的情形,即条件的信息越丰富,主体对付推理的结果反而越不确信。由于非单调推理导致任务的繁芜程度上升,主体也自然会预期他将投入更多的韶光预算处理此问题。这样一来,此韶光预算与主体所实际乐意付出、且能付出的思考韶光之间的差值也会变得更大,韶光压力变大。在这种情形下,主体显然会在知识指派活动中陷入更多的踟蹰。对付这个办理方案,或许有下面的回嘴。
基于短长的不变主义者提出的回嘴:难道不正是基于短长的考量,才导致主体在上述第二种情形中考虑到了“银行的还款日设置办法或许会由于最近的系统调度而变革”这一额外成分吗?所谓“基于韶光压力的模型”,难道不正在此处预设了“基于短长的不变主义”的精确性了吗?
回答:毋宁说情况是这样的,“银行的还款日设置办法或许会由于最近的系统调度而变革”这一点之以是被想到,完备是一个有时成分,与当事人由自身财政状况而产生的短长无甚关系。实际上,我们既能设想一个人在资金急急的情形下,银行的还款日设置一贯没变,也可以设想在他资金充裕的情形下,银行的还款日设置一贯在变。在前一种情形下,他依然不会对“本月26日是银行还款日”这一点的知识地位产生疑惑。此刻的他的确会由于资金的不敷产生资金压力,但这一点与确定“本月26日是银行还款日”这一点时产生的韶光压力无关。在后一种情形下,他却会对“本月26日是银行还款日”这一点的知识地位产生疑惑。此刻他的还款压力虽然不大,不过,这一点依然与确定“本月26日是银行还款日”这一点所产生的韶光压力无关。
再回嘴:我们为何会以为在当事人的财政状况紧张的情形下,他更随意马虎在知识指派中出错呢?
回答:唯一可能的阐明是有人在这里故意或者无意稠浊了信念内容的确定问题与信念判断任务本身的实践优先性问题。说得详细一点,一个人的还款压力不大,纵然他想到了银行的还款日期会变,他也会将搞清楚这一日期的认知任务的实践优先性调低,并优先思考别的任务,比如今晚约会如何给女友制造惊喜。按照我的阐明模型,此刻他依然不知道本月的还款日是否是26日。而在这种情形下,我们之以是方向于认为主体会“知道”本月的还款日的确是26日,乃是由于很多人错将“假装知道”与“知道”混为一谈了。“假装知道”与“真知道”之间的差异是:如果你真知道P,那么你就随时准备好给出某个基于P的行动,而如果你只是假装知道P,那么你只是暂时冻结了对付P的思考而已,而没有准备好做出基于P的行动。很显然,“假装知道”是智能体在面对繁芜信息处理任务时候用于优化资源配置的权宜之计。很明显,这里提到的这个案例仅仅符合“假装知道”的定义,而不符合“知道”的定义,由于我们所谈论确当事人仅仅是由于要集中精力考虑约会,才暂时冻结对付银行还款日的思考,而没有准备给出基于干系思考结论的行动。麻烦的是,由于“假装知道”与“知道”之间的差异细微,当我们利用知识生理学的词汇来描述我们的信念状态的时候,二者常常被稠浊。一种更细致的剖析将揭示这种差异,并使得本节所提到的这一案例不至于涌现阐明模型的反例。须要指出的是,纵然将短长关系纳入我基于韶光压力的知识指派模型,该成分与韶光压力的终极关系也是未定的。详细而言,就算我们承认短长关系的正向增量会导致当事人思考更多的成分,并导致办理任务的韶光预算增量,短长关系的正向增量同时也会使得主体乐意付出更多的韶光来办理问题,由此使得“主体预估他所客不雅观须要的问题处理韶光”与“主体乐意挤出且愿挤出的韶光”之间的差值变得更难预见。我们知道,在算术中,若被减数与减数都被增量,那么,二者的差是否会增加,乃是难以预见的。与其如此麻烦,还不如干脆不去考虑任务的性子与当事人之间的短长关系,使得理论简洁。
2.关于“斑马案例”的阐明。我的模型框架中,在“被看到的斑马可能是被精心伪装的驴”这个可能性没有被提及的情形下,对付“我看到的动物是斑马”这一信念的知识指派就是非常大略的任务,不会涉及太多韶光预算。而在“被看到的斑马可能是被精心伪装的驴”这个可能性被提及的情形下,对付“我看到的动物是斑马”这一信念的知识指派就会成为一项非常繁芜的任务,由于这项任务本身涉及了对付斑马与被伪装成驴的斑马的识别。由于二者的分别太细微了,这项任务也会导致更大的韶光预算,带来更大的韶光压力,导致当事人在知识指派时候的踟蹰。对付斑马案例的这种阐明也可以沿用到对付所谓“钵中之脑”(braininthevat)式的疑惑论[10]的处理上去。试想:你怎么知道你是作为一个实实在在的人呢?你怎么知道你的确是在看这篇论文呢?你怎么知道你不是一个活在营养钵中的、没有身体的“钵中之脑”呢?你怎么知道这种情形没有发生:作为“钵中之脑”的你被一些被精心运送给你大脑皮层的电子讯号所欺骗,由此产生幻觉,以为自己在看一本学术杂志呢?很显然,上述这种带有极度疑惑论色彩的质疑,会使得任何一种知识指派都变得非常困难。而我的模型能够立即阐明这一困难的产生:既然极度的疑惑论假设,如“钵中之脑”假设,与朴素实在论假设都能够阐明同样的日常征象,如我以为我在看学术杂志,我以为自己有两只手等,那么,一个基于疑惑论假设的征象与一个基于实在论假设的同质征象之间的差别,便是险些无法察觉的。在这种情形下,若我们仅仅基于征象而判断疑惑论假设与实在论假设究竟哪个更有根据的话,那么,由此导致的认知任务的繁芜性就会变得不可掌握。这立即会造成一个超级大的韶光预算,进一步使得当事人的任何主不雅观韶光投入都会变得无甚意义。由此造成的巨额韶光赤字,自然也会使得知识指派变得举步维艰了。在笔者看来,上述对付“知识锁定标杆浮动效应”的阐明,不仅简洁,而且还能阐明一些与我的理论相竞争的理论所不能阐明的征象。比如,任何一个人都能看出“斑马案例”所代表的疑惑论比较温和,而“钵中之脑”案例所代表的疑惑论则颇为极度。在后一案例中,知识指派的难度会超过前者。为何会这样呢?在这个问题上,比对主义者或许能说:在“斑马案例”中,目标信念的真正构造是:“我看到的是一匹斑马,而不是一匹被伪装成斑马的驴”,而在“钵中之脑案例”之中,目标信念的真正构造是:“我看到的是一匹实实在在的斑马,而不是钵中之脑装置使令我去‘看到’的一匹斑马”,但纵然说到这一步,笔者认为比对主义者依然欠我们一个阐明,以解释“钵中之脑装置使令我去‘看到’的一匹斑马”这一比对项,为何要比“被伪装成斑马的驴”这一比对项更难使得知识得到固化。我的模型则可以清楚解释这一点:从知识上看,区分斑马与被伪装成斑马的驴这一任务所带来的韶光预算,当然会小于区分实在的斑马与“钵中之脑装置使令我去‘看到’的一匹斑马”这一任务所带来的韶光预算,因此,与前者干系的知识指派任务当然会显得更为困难。说到这一步,我们的事情依然是纯哲学性子的。接下来,笔者还须要对如何在一个打算系统中实现这个“韶光压力打算模型”供应一些主要的辅导见地。
四、如何将韶光压力模型算法化
现在我们须要办理的问题是:如何在一个可打算的模型中,实现韶光压力的表征?一种非常粗糙的办法,便是看在生理学测验中,有多少任务韶光被给予被试者。这个做法有时候并不令人满意,纵然在大量韶光被给予被试者的情形下,被试者也会由于没有兴趣而只乐意投入很小一部分韶光。生理学测验的行为主义方法也很难预估出一个主体对付一个任务的繁芜程度的预估,并由此确定他所相信的该任务的办理所须要的韶光预算量。至于生理学对付韶光压力的阐明,帮助也不大,由于人类神经组织中那些引发压力感的化学物质——如皮质醇或儿茶酚胺的分泌,仅仅对人类具故意义,而未必对设计一台仅仅在抽象层面上实现“韶光压力”的智能机器具有辅导意义。新的思路是引入“步骤”这个观点,但“步骤”这个观点又如何与韶光压力干系呢?我们不妨用下棋来打比方。众所周知,如果一个围棋老手与一个围棋新手都被哀求在2秒钟之内决定下一步棋的话,那么,老手所感想熏染到的韶光压力肯定小于新手。这个差别当然与“2秒”这个从外部给予的韶光限定关系不大,而是与各清闲单位韶光内能够完成的估算步骤的数量有关。打个比方说,假设一个老手1秒钟内能够估算出8步未来走法以及干系的得失落,而一个新手恐怕只能估算出未来2步的走法以及干系的得失落。如此一来,老手的信息处理速率便是新手的4倍。由此不难想见,如果一个任务的繁芜度所须要的预估步数是16步的话,那么对付老手来说,2秒的任务时限带给他的韶光压力便是零(16-8×2=0),而新手感想熏染到的韶光压力是12(16-2×2=12)。而在这里,所有这些压力值的打算单位就得诉诸“步骤数量”这个观点。这个观点具有两个特点:一方面,它具有一定的客不雅观性。一个棋手无论多高明,他的棋也必须一步步下,因此,当我们说一个围棋天才下了“30步棋”的时候,由此涉及的下棋数量,在打算办法方面当无异于对付一个围棋新手的默算活动的测算办法。另一方面,该观点在与韶光单位合营的情形下,能够表示个体差异,特定步骤数量与特定时间单位的比值,正好表示了一个个体的信息处理速率。不过,在对付认知系统的设计中直接引入“步骤数量”这个参数,显然是有困难的,由于并不是所有的认知任务都像下棋那样可以清楚地谈论“步骤数量”。一种更切实的办法是将其处理为特定的韶光量与系统的“原子操作步骤所霸占的韶光”的比值。也便是说:
公式一:步骤数量(N)=特定时间量(T)÷原子操作步骤所占韶光(Ts),或:
这里所说的“原子操作步骤所占韶光”,乃是由认知系统的硬件特性所规定的一步最大略单纯的操作所霸占的韶光,在生理学层面上,这大致对应于电脉冲从一个神经元的细胞核传输到一个毗邻神经元的细胞核所须要的均匀韶光(我们假设不同类型的神经元之间的尺寸差异已经得到了得当的统计学处理);而在理论打算科学的语境中,这也可能是指“万能图灵机”的一步不可被还原的动作所霸占的韶光,如下述动作所霸占的韶光:从读写磁头读入一个“0”,然后在打印字条上删除一个“1”,然后右移一格。显然,这个参数是能够被测定的,而且对付一定的物种的神经系统与一定的打算机的硬件配置来说,大约便是一个常数。此外,在人工智能的语境中,我们乃至可以设想这个数据是可以被系统内部的高阶层信息处理子系统加以调用的,因此,它也就能够涌如今上述公式之中,并由此参与前述高阶层信息处理子系统对付韶光压力的测算。那么,公式一所说的“特定时间量”,详细又指什么呢?在谈论韶光压力的语境中,这分别便是系统所预估的办理特界说务所须要的韶光预算,以及它自己乐意付出、且能付出的韶光预算。由此我们得出了:
公式二:办理特界说务所须要步骤数量的预算(Nr)=办理该任务的韶光预算(Tr)÷原子操作步骤所占韶光(Ts),或:
公式三:认知系统所实际乐意给出、并有能力给出的用以办理特定问题的步骤数量(Na)=系统所乐意给出、且能给出的韶光(Ta)÷原子操作步骤所占韶光(Ts),或:
以是,如果系统感想熏染到的压力值(P),是其所预估须要的操作步骤(Nr)与其乐意给出、且能够给出的操作步骤(Na)之间的差值,我们就得到公式四:
(k是一个体现特定系统特色的常数)
很明显,此公式右边的值是正数时,系统会感想熏染到韶光压力。若是负数,系统会感到韶光盈余。我们乃至可以从这个公式出发,将智性不变主义者所关注的“固知需求”(NC)观点重新布局出来。布局的办法非常大略:既然固知需求越强,主体就更随意马虎做出知识指派,而韶光压力越大,主体就更不随意马虎做出知识指派,那么,固知需求与韶光压力之间亦就呈现出了反比关系,我们就有了公式五:
由此,我们也就可以从一个更具算法色彩的角度来阐明“银行案例”与“斑马案例”了。就前一案例而言,根据公式四,正好是想到银行还款日会变的那个主体对付不同信息的整合任务,导致了Tr-值的上升,并在其它参数没有发生显著变革的情形下,导致了P-值的上升,终极导致了主体在知识指派过程中的踟蹰。再强调一遍,意识到还款日会变确当事人,未必就一定是财政风险高确当事人,只管财政风险高确当事人更随意马虎在确定还款日的过程中多把稳各方面的证据。很明显,出于各种繁芜的成分,一个财政状态不错的人也会有时意识到银行还款日或许会变。就后一案例而言,根据公式四,正好是主体对付斑马与被伪装成斑马的驴的辨别所带来的困难,导致了Tr-值的上升,并在其它参数没有发生显著变革的情形下,导致了P-值的上升,终极导致了主体在知识指派过程中的踟蹰。
下面是读者对上述刻画的八点可能的质疑以及我的回答。
质疑一:你的全体模型构建是基于人工智能的实践需求的,并用这个需求去对知识论研究构成“反包围”。这样的做法,是不是通过将知识论还原为心智建模的一部分,而将知识论研究的独立性都给取消了呢?
答曰:智性不变主义已经初步给出了将知识论换为心智哲学的一部分的研究方案。如果西方主流学界能够容忍智性不变主义的存在,为何不能容忍笔者的类似努力?
质疑二:“知道”在日常生活中是一个非黑即白的词,比如,你要么知道太阳是太阳系的中央,要么不知道,你可不能说“我在一定程度上知道这一点”。但根据你的模型,“韶光压力”是可以被程度化的,因此,与之呈反比的“知道”,也可以被加上“一定程度上”这样的副词。但这样的处理,岂不是与我们的上述直觉相冲突吗?
答曰:化解此冲突不难。我们在测算压力值的时候,不妨再设置一个“知识阈值”,即规定压力值低于此阈值的时候,系统的输出就会给出“知道”的标签,反之便是不给出这样的标签。须要把稳的是,这个阈值本身是随着设计须要而变的。如果我们须要设计一台“谨慎”的机器人,那么这个阈值就会显得非常低,也便是说,系统要等到“韶光赤字”非常小的时候才给出知识指派;反之,若我们要设计一台“大胆”的机器人,阈值则可被适当提高。不过,如何确定这个阈值是一个实践的问题,不是理论的问题。
质疑三:不同的系统彼此不同的“知识阈值”,又怎么导致一个共通的“知识”语义标准呢?在这种情形下,你的理论究竟还是不是“不变主义”的一种呢?如果我们将“不变主义”的意思阐明为“‘知道’的语义标准不变的话”?
答曰:我的模型并没有直接涉及“‘知道’的公共语义标准是否变革”这一问题。我的理论仅仅涉及了系统内部对付韶光压力的感想熏染办法,以及该感想熏染办法与其知识指派方向之间的关系。从人工智能角度看,我仅仅知足于制造出一台具有足够灵巧性的推理机器,使其能够灵巧调度信念系统中的固化部分与非固化部分之间的界线。至于日常措辞所说的“知道”,则更多地涉及自然语处理的问题,由于不同的自然措辞如何表达“知道”这个观点,有不同的办理方案,不结合对付不同自然措辞的建模,打算机专家也无法笼统地回答这一问题。在人工智能研究中,“自然措辞处理”更多涉及人-机界面问题,与推理机制的设计并不是一个课题。至于主流英语剖析哲学家的元哲学不雅观点——“基于英语直觉的针对‘知道’(toknow)的研究,可以产生覆盖所有措辞的一样平常性哲学结论”——只是一种盎格鲁民族至上主义所导致的幻觉罢了,我们中国学者大可不必对其百依百顺。如果我们仅就英语谈英语,当然也是可以谈论我的技能模型是否能够支持一种关于“知道”的语义不变主义。而笔者对此的见地是:原则上我可以让我的模型与此类语义不变主义彼此兼容,而彼此兼容的办法是:只管不同的系统会由于自身软硬件底细况的不同而产生不同的压力值,但是基于“公共生活”(这是指机器人与人类之间的公共生活,或是机器人之间的公共生活)的须要,在人-机界面措辞或者机-机界面措辞的层面上,各个别系依然会利用一个语义标准相对固定的“知道”(toknow)观点,这个观点或许会与系统内部运行时利用的“知道”观点不同。此情形多少有点像“贵”这个观点的利用。只管不同的经济主体自身的经济能力与对付经济压力的感想熏染力都是彼此不同的,但不妨碍大家都会在一个类似的意义上利用“贵”这个观点。由此,只管一个富人会对一个穷汉为何会以为“一头烤乳猪非常贵”这一点感到惊异,但这个富人至少知道:这头烤乳猪的价格霸占此穷汉的可支配收入的比例是比较高的,但究竟有多高,这一点对富人每每是未知的。同样的道理,一台配置很高的通用人工智能机器人只管未必会完备理解其余一台配置不佳的机器人为何会对一个大略的问题的答案贴上“不知道”的标签,但它至少能够估计出:后一台机器人在办理干系认知任务时正承受着巨大的韶光压力,但这压力究竟有多大,这一点对前一台机器人每每是未知的。
质疑四:现在再来问几个技能性更强的问题。比如:为何不让打算机直接打算步骤数量,而一定要按照公式一的哀求,将其转化为“特定时间量”和“原子步骤所霸占的韶光”的商呢?虽然对付人类主体而言,要预估一个任务,特殊是那些与棋类活动不同的、形式特色不太明显的任务,所须要花费的步骤量是相对繁芜的,但对付打算机来说,这个任务是不是会更大略一点呢?
答曰:乃至对付打算机来说,这个任务也不大略。步骤数量是系统对付内部运行历史特色的总结,与系统从人-机界面获取的外部韶光表征信息存在着格式上的差异。如果系统要同时记录内部运行的步骤数量与人类所给予的任务所自带的韶光表征的话,那么,系统就会产生如何折衷两类数据之间关系的额外包袱。我们采取公式一,对付步骤数量的直接表征就被规避了,系统可以通过“特定时间量”和“原子步骤所霸占的韶光”这两个比较随意马虎获取的数据来定义步骤数量。顺便说一句,前一个数据之以是随意马虎获取,是由于对付它的计量办法与人类对付韶光的公共计量办法相同,二者都可以在一个意义上利用“1分钟”“1小时”这样的表达。由此导致的人-机界面的友好度也会更高;后一数据之以是也比较随意马虎获取,乃是由于这在原则上是一个相对付特定机器而言不变的常数)。
质疑五:在上文的谈论中,Tr-值与Ta-值的赋值彷佛仅仅是基于谈论者的直觉(也便是说,我们是通过直觉,才意识到了某类认知任务要比别的任务来得困难),而在打算系统中,这种赋值又该如何自动实现呢?难道打算机有直觉吗?
答曰:在笔者看来,一个足够强大的通用人工智能系统,实在是有可能通过推理来创造一个任务的办理所须要的韶光量(Tr-值)的。干系路径有三条:(1)假设系统碰着的这个问题是老问题。于是,系统便调阅自己的运行历史,创造同样的任务历史上它也实行过。由此,系统就将影象库中存留的上次办理该问题的韶光或是历史上办理此问题的均匀花费韶光视为这次任务所须要花费的Tr-值。(2)假设系统碰着的这个问题是新问题。系统可以通过类比推理发现这个新问题与过去它所处理过的某个老问题类似。于是,系统就将影象库中存留的上次办理该问题的韶光(或是历史上办理此问题的均匀花费韶光)视为这次任务所须要花费的Tr-值(先假设此值为a)。由于这个值是来自于类比推理的,其确实度有限,因此,系统就会给出一个数值区间,使得此时对付Tr-值的赋值,可以容忍对付a的少许偏离。(3)假设系统遭遇到的这个新问题,与其所碰着过的任何一个问题都不相似。在这种情形下,系统会自动将Tr-值调到一个非常大的数值,由此导致压力值的迅速攀升。这一点也是符合我们人类的直觉的:我们人类在碰着完备无法理解的新任务时,也会感到压力极大。但为了使得系统一直摆,系统会自动寻求人工干预,或是寻求别的通用人工智能系统的帮助。再来看系统当如何为其所乐意付出、且其能够付出的韶光(Ta-值)进行赋值。笔者将该值进一步剖析为“系统所乐意付出的韶光”与“系统所能够付出的韶光”这两个量的重叠部分。比如,如果前者是5分钟,后者是4分钟,二者的重叠部分就只能算是4分钟。
质疑六:系统该如何为“系统所乐意付出的韶光”与“系统所能够付出的韶光”这两个参数进一步的赋值呢?后一个参数比较随意马虎处理,此即系统本身得到的任务完成时限与系统本身的运行所许可投入的韶光之间的重叠部分。前一个参数则繁芜一些,由于这牵扯到“乐意”这个麻烦的情态动词。难道我们要为系统的“自由意志”建模?这可是一项非常困难的任务。
答曰:一个规避此难题的办法,便是设置如下算法:步骤一:系统接到一个任务时,寻求以下两个问题的答案:(1)对付该任务的实行是否与系统自身的代价不雅观相互抵触;(2)对付该任务的实行是否会滋扰系统正在实行的别的任务;步骤二:若(1)的回答是肯定的,对付该任务的实行的确会导致与系统自身的代价不雅观抵触,那么,系统会自动将“系统所乐意付出的韶光”赋值为0,由此导致Ta-值为零。步骤三:若(1)的回答是否定的,则系统就会转而查看对付(2)的追问究竟是会得到一个肯定的还是否定的答案。若答案是否定的,即对付该任务的实行不会滋扰系统正在实行的别的任务,那么,系统就会将系统所许可的运作韶光视为“系统所乐意付出的韶光”的赋值。若答案是肯定的,系统会转而追问问题(3):该问题是否比正在处理的问题更为主要?步骤四:若对付(3)的查看导致了一个肯定的答案,则系统会搁置正在处理的问题,并将系统许可的运作韶光视为“系统所乐意付出的韶光”的赋值。若上述答案是否定的,则系统会估算当下问题所须要的韶光,并将“系统所乐意付出的用以办理新问题的韶光”视为“系统所许可的运作韶光”与“系统办理当下问题所须要的韶光”的差值。
质疑七:上述路线图,彷佛预设了系统必须在处理多个问题时,就问题的处理次序进行推理。但为何我们不能设想一台算力足够强大的机器,能够同时处理老问题和新问题,而不纠结于处理问题的次序呢?
答曰:天下上的任何存在者都是有限存在者,打算机也不例外。因此,算力的有限性是任何机器都无法摆脱的宿命。纵然算力再强大,系统也须要在不同的任务之间进行排序:譬如在系统所接到的第1000000项任务与第1000001项任务之间排序。在这样的情形下,前文给出的流程,在原则上依然是适用的。
质疑八:你在对付第六个质疑的回答的第一个步骤中,谈到了“代价不雅观”。考虑到纵然在人类伦理学家那里,功利主义者与责任论者对付代价本性的谈论依然令人莫衷一是,代价不雅观又如何在人工智能中得到简洁的刻画?
答曰:无论责任论与功利论的代价不雅观孰是孰非,从实行角度看,代价不雅观无非便是处理事变的一种先后排序问题。比如,儒家的代价不雅观若主见“爱有差等”,那么,一台“儒家机器人”就会在实行接济任务的时候先去探察那些与主人有特殊关系的待接济者;而一台表示“兼爱”原则的“墨家机器人”,会随机挑选待接济者。在这种情形下,我们当然可以将干系的代价原则算法化,并谈论不同的代价原则之间的逻辑冲突。譬如,当“墨家机器人”被哀求实行先去救出某人支属的指令后,该指令便会由于与“随机救出待接济者”这一固有指令发生冲突而被悬置。须要补充的是,系统的运行履历亦将见告系统一项任务自身的代价权重。譬如,如果系统已经被奉告来自“教诲部”的邮件的优先性要高于大学校长,那么,系统就会将带有前者标签的任务的办理优先性置前。至此,用来解释韶光压力的“公式四”所涉及的所有参数的赋值原则以及由此带来的所有质疑,都已经得到解释。因此,韶光压力是有希望在一个通用人工智能系统中实现算法化的。
五、结语
正如兼跨知识论研究与人工智能研究的美国学者珀洛克(JohnL.Pollock)的事情所显示的,人工智能的研究,实在是能够以算法化的办法,为考验特定的知识论事情的“踏实性”供应契机的。但非常可惜的是,在珀洛克于2009年亡故之后,此类跨学科研究的案例就非常少了。这几年朝阳东升的形式知识论的研究引入了大量技能手段来使得知识论的理论描述更具科学化,但如果此类研究不以建立某种统一的认知模型为目标,也会流于“为形式化而形式化”之弊,未必真正能够产生足够的跨学科效应。笔者对付“知识锁定标杆浮动效应”的打算建模考试测验,实际上便是在特定认知模型培植之目标导引下所作出的一种将知识论与人工智能哲学相互结合的新努力。这一努力的方法论原则包括两条:
第一,追求理论描述的简洁性,不引入诸如“可能天下”“比拟项”之类的暗昧观点。换言之,不为办理一个问题而预设一些更难办理的问题。
第二,一方面接管直不雅观的勾引,如本文第三节对付韶光压力的描述便是基于直不雅观的,另一方面依然坚持为所有的直不雅观供应底层的技能支持,如本文第四节所做的。
限于篇幅,笔者仅仅就如何将韶光压力算法化作出了原则上的刻画,而没有真正落实到编程的层面上。很显然,如果我们的事情须要推进到这样一个层面,我们就须要一个详细的打算机措辞,来实现这里所说的编程思想。详细而言,这种措辞将具备一定的类比推理能力,并能够通过履历的积累而对信念系统自身的构造实时更新。在笔者所知道的范围内,王培师长西席发明的“非公理化推理系统”(Non-axiomatic Reasoning System)便能够供应一种基本知足上述哀求的打算机措辞[11]。但对付干系编程作业的技能铺展,已经超出了一篇哲学论文的论题范围,笔者只好就此打住。
(宗宁师长西席对本文的初稿提出了一些很有代价的批评,本文的质疑与答复部分的一些段落便是在他的启示下完成的)
收稿日期 2019-04-20
作者简介 徐英瑾,哲学博士,复旦大学哲学学院教授、博士生导师,教诲部青年长江学者;上海 200433。
任务编辑 何坤翁
参考文献
[1]Fred Dreske. Epistemic Operators. Journal of Philosophy, 1970,(67).
[2]Keith DeRose. Contextualism and Knowledge Attributions. Philosophy and Phenomenological Research, 1992,(52).
[3]PatrickHayes.TheNaïvePhysicsManifesto//MargaretBoden.ThePhilosophyofArtificialIntelligence.NewYork:Oxford University Press,1990.
[4]J. Schaffer. From Contextualism to Contrastivism. Philosophical Studies, 2004,119(1–2).
[5]J. Stanley. Knowledge and Interest. Oxford: Oxford University Press,2005.
[6]Jennifer Nagel.Knowledge Ascriptions and the Psychological Consequences of Changing Stakes. Australasian Journalof Philosophy, 2008, 86 (2).
[7]A.Kruglanski&D.Webster.MotivatedClosingoftheMind:“Seizing”and“Freezing”.PsychologicalReview,1996,(103).
[8]L. Savage. The Foundations of Statistics. New York: Dover Publishing ,1972.
[9]J. Ross & M. Schroeder. Belief, Credence, and Pragmatic Encroachment. Philosophy and Phenomenological Research Philosophical Studies, 2012,88(2).
[10]Hilary Putnam. The Meaning of “Meaning”. Mind, Language and Reality: Philosophical Papers, Vol 1. Cambridge: Cam-bridgeUniversityPress,1975.
[11]Pei Wang. Rigid Flexibility: The Logic of Intelligence. Netherlands: Springer,2006.
How to Simulate Epistemic Shifts in a General
Artificial Intelligence System?
A Cognitive Model Based on the Notion of “Time Pressure”
Xu Yingjin (Fudan University)
Abstract The term “epistemic shifts” refers to the phenomenon that knowledge ascribers would ascribe different epistemic statuses to same beliefs under different internal/external conditions. Hence, one belief would be judged as knowledge in one circumstance, and as non-knowledge in another. The existence of this phenomenon makes human subjects be able to respond to environmental changes in a flexible manner, andhence, an Artificial General Intelligence (AGI) system is also expected to simulate this function. But this simulation is impossible if there is no convincing high-level explanation of “epistemic shifts”, whereas the mainstream epistemological explanations of it (which are provided by contextualism, contrastivism, invariantism, etc.)are either too ad hoc or assuming notions which are more troublesome than the explanans in question. My competing theory appeals to the notion of “time pressure”, and the intensity of time pressure is supposed to be inversely proportional to the intensity of the disposition of attributing knowledge to the target belief. Time pressure is construed in terms of the numerical difference between the estimated time needed by the completion of the task and the time that the subject can and wants to spend to complete the same task. And such account can be algorithmically treated to fit the theoretical requirement of AGI.
Key words Artificial General Intelligence (AGI); time pressure; epistemic shifts; contrastivism; contex- tualism; invariantism; need-for-closure
防失落联请关注以下公号
老蝉的自留地
读天下一流之书
感性 直觉