人工智能的利与弊(bì)及未来的(de)发展(zhǎn)方向如(rú)何?
新冠状(zhuàng)病毒突然的出(chū)现,通(tōng)过空气迅速扩散,波及大(dà)众,影响了(le)国人(rén)们的春节(jiē)假(jiǎ)期和个企业的正常复工,但同时也给AI人工智能推波助澜,实打实的做了一波广告。
借着疫情的持续发(fā)展,AI人(rén)工智能企业的纷纷助力,让(ràng)人(rén)工(gōng)智能这个概念出(chū)现在越来越(yuè)多人的视野。那人工智能现状如何呢?
目前,社会上(shàng)对于人工智能技术的讨论可谓众说纷纭,莫衷一(yī)是。有(yǒu)观点(diǎn)认为,人工智能(néng)技术已经或即将(jiāng)全(quán)面(miàn)超越(yuè)人类的能力水平,已经可以无条件应(yīng)用,因而(ér)也会(huì)产生严(yán)重的(de)伦(lún)理危(wēi)机;也(yě)有观点认为,现有(yǒu)人工智能技术只是(shì)“人工弱智”,“有多少人工就有多少智能(néng)”,因而无法应用,也就根本(běn)不存(cún)在(zài)伦理风险。但如果(guǒ)依(yī)据前一种看(kàn)法从现(xiàn)在开始就(jiù)限制人工智能的发展,或(huò)者基于后一种看法完全(quán)放(fàng)弃对人(rén)工(gōng)智能伦理风险的监管,都(dōu)是不明智的。
70年来人工智能的技术成果有哪些?根据对现有人工智能成果的(de)技(jì)术本质的理解,提出人工智(zhì)能封闭性和强(qiáng)封(fēng)闭性(xìng)准则(zé),形(xíng)成观察(chá)人工智能的一种新视角,进而得出以下观察:第一,在满足(zú)强封闭性准则的场景中,现有(yǒu)人工智(zhì)能技术可以大规模应用,而在不满足(zú)该准则(zé)的(de)场景中难以获得成功应用(yòng);第二,受强封(fēng)闭性准则(zé)的(de)制约,短期内不存在人工智能技(jì)术失控(kòng)的风险(xiǎn),而未来长(zhǎng)期风险也是可控的;第三(sān),在强(qiáng)封闭性准则的有效范围(wéi)内,人工智能的主要风险来(lái)自技术误(wù)用和管理失(shī)误。脱离人工智能技术(shù)本质的政策,将难(nán)以避免“一管就死、一放就乱”的监管困境。
人工智能(néng)应(yīng)用与治理的迫切需求(qiú)
人工智能迄今(jīn)已(yǐ)有约70年历史,出现(xiàn)了三次(cì)浪(làng)潮,每次浪潮经历大约20年。也有人将以往的(de)人工智能技术归结为两代,每代的(de)发(fā)展经历了30~40年。由于本(běn)轮产业升级的窗口期只有10~15年,而一代新技术从诞生(shēng)到成熟往往需要几十(shí)年,所以本轮产业升级依靠的人工智能技术,将主(zhǔ)要是(shì)现(xiàn)有人工智能技(jì)术(shù)的工程化(huà)落地,而不(bú)是(shì)等待(dài)下(xià)一代新技(jì)术的成熟。于是(shì),下列问题尖锐(ruì)地(dì)呈现(xiàn)在全社会面前:10~15年内(nèi),现有人工智能技术能(néng)否(fǒu)以(yǐ)及如何在我(wǒ)国产业升级中发挥关键作用?如果我们(men)不能从现(xiàn)有人工智能技术的(de)本质出发回答这个问题(tí),人工智能国(guó)家战略(luè)必将落空,与此有(yǒu)关的产(chǎn)业升级也必将(jiāng)受到极大(dà)影响。
在西方发达国家(jiā)中,人工智能的前三次浪(làng)潮均(jun1)引起普遍(biàn)关注,因(yīn)而社会各界对人(rén)工智能的了解是长期的,也较容易(yì)形成较(jiào)为客观的看(kàn)法。但在我国(guó),由于社会(huì)上(shàng)普遍关心的(de)只有人工智(zhì)能的第三次浪潮,而(ér)且在短短(duǎn)几年之内(nèi)这种关注又被(bèi)放(fàng)大,故而普(pǔ)遍存在着对人工智能(néng)技(jì)术真相了解不够,甚至误(wù)将国外影视作品当作现实(shí)的(de)现象。而我国(guó)人工智(zhì)能(néng)领域的专(zhuān)家学者(zhě),又极少介入社会上的讨论,极少参与伦理风险(xiǎn)研究和政策制定。因而,如果相关政策建议(yì)不能如实反(fǎn)映人工智能技(jì)术本质(zhì)、应用条件和发(fā)展态势,必(bì)将隐含着管理失误(wù)的(de)巨大风险。
人工(gōng)智能三(sān)次浪潮(cháo)的技术进(jìn)展
人工智(zhì)能研究已形成了(le)至少几(jǐ)千(qiān)种不同的技术路线,其中最成功、影响(xiǎng)最大的有两种,被称为人工智能的两种经典思(sī)维:“基于模型的暴(bào)力法(fǎ)” 与“基于元模型的训练法”。这两种思维(wéi)虽然不能代表人工智能(néng)的全部,但它们已经不是停留(liú)在单个技(jì)术的层面,而是上升到“机器思维”的高(gāo)度,因而它们在近(jìn)期应用中(zhōng)发挥关键(jiàn)作用,最值得关注(zhù)。
第一种人工智能经典思维是“基(jī)于模型(xíng)的暴力法”,其基本设计(jì)原理是:第一,构(gòu)建问(wèn)题的(de)一个精确(què)模型;第二,建(jiàn)立一个表达该模(mó)型的(de)知识表示或状态空间,使得推理或搜索在计(jì)算上是可行的;第三,在上述知识表示(shì)或状态(tài)空间(jiān)中,用推理法或搜索法穷举所有(yǒu)选项,找(zhǎo)出(chū)问(wèn)题的一个解(jiě)。因此,暴力法包含(hán)推理法和搜(sōu)索(suǒ)法(fǎ)两种主要实现方(fāng)法(fǎ),它(tā)们具有(yǒu)共同的基本前提:待解问题存在良定(dìng)义的、精确(què)的符号模型(xíng)。
在(zài)推理法(fǎ)中,通常采用逻辑形式化、概率(lǜ)形式化或决(jué)策论形式化作为(wéi)知识表达的手段。以逻辑形式化为例(lì),一个AI推理系统由一(yī)个知识库和一个推理机组(zǔ)成,推理机是一个执(zhí)行(háng)推理的计算(suàn)机程序,往往(wǎng)由专业团队长期研发而成,而知识库则需要(yào)由不同应用的研(yán)发者自(zì)行开发。推理机根据知识库里的知识(shí)进行推理,回答提问。
基于形式(shì)化逻(luó)辑系(xì)统的(de)推理机(jī)的研制以对(duì)应逻辑的“保真性”为标准,因此推理机本身是“可证正确的”—只要推理(lǐ)机(jī)使用(yòng)的(de)知识库是“正确的”,则(zé)对(duì)知识库有效范围内的任何问题,推理(lǐ)机给出的回答都是(shì)正(zhèng)确的。然而,一个(gè)知识库的(de)“正确性”以及相对于一(yī)个应(yīng)用(yòng)领域的充分(fèn)性,至今没有(yǒu)形(xíng)成公认的(de)、可操(cāo)作的标准,只能(néng)通过测试进行(háng)实验检验。
第二种人工(gōng)智能(néng)经典思维是“基(jī)于元(yuán)模型的(de)训练法”,其基本设计原理是:第一,建立问题(tí)的(de)元模型;第二(èr),参照元模型,收集训练数据并进行人工标注,选择一种合适的人(rén)工神经网(wǎng)络(luò)结构和一个监督学习算(suàn)法;第三,依数据拟合原(yuán)理,以(yǐ)带标注(zhù)的数据,用上(shàng)述监(jiān)督学习算(suàn)法(fǎ)训练(liàn)上(shàng)述人工(gōng)神经网络的连接权(quán)重,使得网络输(shū)出总误差最(zuì)小。训(xùn)练好(hǎo)的人工神经网络可以对任意输(shū)入快(kuài)速计(jì)算出对(duì)应的(de)输出,并达到(dào)一定的准(zhǔn)确性。例如,针对给定的图像库,一些经过训练的深(shēn)层神经网络,可以对输入的图片进行分类,输出图片中(zhōng)物体的(de)种类,分类准确性已超(chāo)过人类(lèi)。然而,训练法目(mù)前没有可证(zhèng)正确性,甚至(zhì)没有可解(jiě)释性。
在训练法(fǎ)中,只有监督学习算法和带标注的数据(jù)是不够的,还必(bì)须对学习目标、评价准则(zé)、测试方法、测试工具等(děng)进行人工选择。本文将(jiāng)这些人工选择汇集在一起,用“元模型”概括它们。因此,训(xùn)练法绝不是(shì)只要有训练数据和训练算法就行的,人工(gōng)智(zhì)能已具备独(dú)立(lì)于人(rén)类的“自我学习(xí)”能(néng)力的说法更是毫无根据的。
训练法和暴力法都(dōu)存在“脆弱性”问题(tí):如果输(shū)入(rù)不在(zài)知(zhī)识库或训练好的(de)人(rén)工神(shén)经网络的(de)覆盖范围内,将产生错误的输出。针对实际(jì)应用中无处不在的感知(zhī)噪声,美国麻省理工学院做过一个(gè)测试(shì)。先用一个著(zhe)名(míng)的商(shāng)业机器学习(xí)系统训练(liàn)出一个深层神经(jīng)网络,该网络可以从照片中识别各种枪支,并达到很高的正确(què)识别率。然后,人为修改了这些照片上的少量像素(代表(biǎo)感知噪声),这些修(xiū)改对(duì)人眼识别(bié)没(méi)有任何影响,可是训练好的深层神(shén)经网络却不能正确识别(bié)修改后的(de)照片(piàn),而且会发生离奇的错误。自(zì)20世纪80年代以来,脆弱性已成为(wéi)制约(yuē)现有人工智能技术成功应(yīng)用(yòng)的(de)主要瓶颈。
除了脆弱性之(zhī)外(wài),暴(bào)力法和训练法还(hái)存在其他短板。工程上,训练法的主要短板是(shì)需要对大量原始(shǐ)数据进行(háng)人(rén)工标注,费时(shí)费力,且难以保(bǎo)证标注(zhù)质(zhì)量;暴力法的主要(yào)短板(bǎn)是需要人工编写知(zhī)识库或制(zhì)定(dìng)搜索空间,而这两(liǎng)项工作对于绝大(dà)多数开(kāi)发者而(ér)言是(shì)十分困难的。因此,尝试将暴(bào)力法和(hé)训(xùn)练法取长补(bǔ)短,以消除或减少它们(men)各自的(de)短板,一直是人工智能的一(yī)个研究课题。
AlphaGo Zero采用了四项人工智(zhì)能技术(shù),包括两项暴力法技术—简化的决(jué)策论模型和蒙特卡(kǎ)洛树搜索,用(yòng)这两项技术进行自博(自己(jǐ)和自己(jǐ)下棋),自动产生训(xùn)练数据(jù)和(hé)标注,而且不仅(jǐn)下了(le)人类下过的很多棋(qí),也(yě)下(xià)了人类没下过的很多棋;另外两(liǎng)项是训练法技术(shù)——残(cán)差网络和强化学习,强化学习算法用自博产生的全(quán)部训练(liàn)数据及标注(zhù)对残差网(wǎng)络进(jìn)行训练,不断改(gǎi)进残差(chà)网络,最终训(xùn)练出一个网络,其下棋水平远远(yuǎn)超过了人类(lèi)。这也表明(míng),认为AlphaGo Zero仅仅是深度学习(xí)的胜(shèng)利,是一个(gè)巨大的误解。正是由于暴(bào)力法和(hé)训(xùn)练法的结合,使得AlphaGo Zero完全不需(xū)要人工标注和人类围棋知识(除了规则)。
根据规则,围(wéi)棋一共可以下出大约10的300次(cì)方(fāng)局不同(tóng)的棋。AlphaGo Zero通过40天自博,下了2900万(wàn)局棋(不到10的8次(cì)方(fāng)),仅仅探索了所有围棋棋(qí)局中(zhōng)的一(yī)个极小(xiǎo)部分,所(suǒ)以AlphaGo Zero的下棋水平还有巨大的提升空间。这表明,在现有人工(gōng)智(zhì)能技术的(de)有效工作(zuò)范(fàn)围内(nèi),人工智能系统(tǒng)的能力已(yǐ)经远远超(chāo)过了人类,“多少(shǎo)人工多少智能”的说法是(shì)没有根据的(de),也是不符合事(shì)实的。
以上(shàng)分析表明,社会上流行的两种极(jí)端说法都是(shì)不成立的(de)。那么,现有人工智能技术的真实能力(lì)到底如何?
现有(yǒu)人工智能技术的能力边(biān)界—封闭(bì)性
有人(rén)认为:围棋是最难的问题(tí),既然AlphaGo在(zài)最(zuì)难的问题上超过了(le)人(rén)类,当然人(rén)工智能(néng)已全面超(chāo)过了(le)人(rén)类。但事实上,对人工智能而(ér)言,围(wéi)棋是最容易的(de)一类问题,比围棋更难(nán)的问题(tí)不仅有,而且非常多(duō),而在这些(xiē)问题上(shàng),现有人工智能技术远远(yuǎn)达不到(dào)人的能力水平。
因此,我们需要某种(zhǒng)准则(zé),以(yǐ)便客观地判断:哪(nǎ)些场景(jǐng)中的应用是现有人(rén)工智能技(jì)术能够解决的,哪些问题是不能解决的。这个(gè)准则(zé)就是封(fēng)闭性。为了便于理(lǐ)解,这(zhè)里给出封闭性的一种尽(jìn)可能通俗的描述。
一个应用场(chǎng)景具有封闭性,如果下列两条件之一得到满足:(1)存(cún)在一个可计算的(de)和语(yǔ)义(yì)完全的模型,并且所(suǒ)有提问在该模型的可解范围内(nèi);(2)存在有限确定的元模型,并(bìng)且(qiě)代(dài)表性数据集也是有限(xiàn)确(què)定(dìng)的(de)。
封闭性条件(1)和条(tiáo)件(jiàn)(2)是分别针(zhēn)对(duì)暴力法和训练法而(ér)言(yán)的。一个应用场景如果不满足条件(1)或条件(2)中的任何一个要求,则该场景应用就不能用暴力法或训练法(fǎ)解决。例如,假设一个场景具有可计算的和语(yǔ)义完全的模型,但某些提(tí)问不在该模(mó)型的可(kě)解范(fàn)围(wéi)内,那么就不(bú)能保证智能系统对(duì)这(zhè)些提(tí)问(wèn)的回(huí)答都是(shì)正确的,这时就出(chū)现(xiàn)了脆弱性。
因此,封(fēng)闭(bì)性给出了一个场景(jǐng)中的应用能够被暴(bào)力法或训练(liàn)法解决的(de)理论上的必要条件,也就是说(shuō),不(bú)满足(zú)这些(xiē)条件(jiàn)的场景应用是不可能(néng)用现有人工智(zhì)能技术实(shí)现的(de)。但是,实际场景往往是非常(cháng)复杂的,理论上的必要条件(jiàn)与工程实际之间存(cún)在一定距离。例如,用训练法进行图像分类时,不保证分类误识(shí)别率为零,而且错误(wù)的性质可能非常严重,无法满足用户(hù)的需求。为了尽可(kě)能缩小理论与实(shí)际之间(jiān)的距离(lí),本(běn)文引入强封闭性(xìng)准则如(rú)下。
一个场(chǎng)景具有(yǒu)强封闭(bì)性,如果(guǒ)下列条件全部得到满足(zú):(1)该场景具有(yǒu)封闭性;(2)该场景具有失误非致命(mìng)性,即应用于该场景的智能(néng)系统(tǒng)的失误不产生致命的后果;(3)基(jī)础条件成(chéng)熟性,即封闭性包含的要求在(zài)该应用场景中都得到(dào)实际满足。
基础条件成熟性包含(hán)的内(nèi)容较多,下面介(jiè)绍两种重(chóng)要的典(diǎn)型情况。
第一种情况是,满足要求(qiú)的模型理论上存在,工(gōng)程上构建不(bú)出。封闭性准则中的条件(1)要求,存在一(yī)个可计算的和语义完全的(de)模(mó)型,而这里(lǐ)所(suǒ)谓“存在”只要理论上成立就行(háng)。但对于(yú)一项具体的工(gōng)程项(xiàng)目来说,仅(jǐn)仅在(zài)理论(lùn)上存在这样的模型是不(bú)够的,必须能(néng)够在(zài)该项目要求的施工期(qī)限内,实际地构建出一个这样的模型。可是有些场景过(guò)于复杂,无法在(zài)项目期(qī)限(xiàn)内(nèi)实际构建出它(tā)的模型。于是,这样的场景(jǐng)虽然符合封闭性(xìng)准则(zé),却在项目实施中无法成功。基础(chǔ)条件成熟性要求:在项目施工期限内可以实际构建出所需的模型,因(yīn)而强封闭性准则反映(yìng)了工(gōng)程可行(háng)性。
第二种(zhǒng)情(qíng)况是,代表性数据(jù)集理论上存在,工程中(zhōng)得不(bú)到。封闭性准则的条件(2)要求保证(zhèng)找到一个(gè)复杂问题(tí)的代表性数据集,即使(shǐ)理(lǐ)论上可以证明(míng)存在这(zhè)样的代表性数据集。因(yīn)此,目前主要在环境变化(huà)可忽略或(huò)可控的(de)场景中运用(yòng)训练法,因为代表性数(shù)据集(jí)在这种场(chǎng)景中是(shì)可以(yǐ)得(dé)到的。这里的“环境(jìng)变化可(kě)忽略或可控”就是强封闭性准则的一项(xiàng)具体要求,而封闭性(xìng)准则不包含(hán)这项要求。
当一个应用场景出现以上(shàng)两种情况时(shí),怎么处理才能符合强封闭(bì)性准则?对于(yú)多数企业特别是中(zhōng)小(xiǎo)企业来说,最有效的办法是进行场(chǎng)景裁剪,比(bǐ)如(rú)缩小(xiǎo)场景规模、舍弃场景中难以建模的部分(fèn)、舍(shě)弃场(chǎng)景中环境变化不可控或不可(kě)忽视的部分(fèn),使得裁剪后(hòu)的场景符合强封闭性准则。
另外,人工(gōng)智能技(jì)术在实际(jì)应用中(zhōng)往往起“画龙点睛(jīng)”的(de)作用,而不是(shì)单打独(dú)斗地解决(jué)一个行业(yè)的全部(bù)技术问题。因(yīn)此,通常(cháng)是(shì)在(zài)其他条(tiáo)件都(dōu)已具备,却仍然无法(fǎ)实现预期工程目标的(de)情况下(xià),引入人工(gōng)智能(néng)技术以攻克(kè)难点(diǎn),从而(ér)发挥关(guān)键性作用(yòng)。这也是基础(chǔ)条(tiáo)件成熟性(xìng)的要求之一。例(lì)如,传统制造业的信(xìn)息化和自动(dòng)化、大面积高标准农田(tián)的实施,分别为我(wǒ)国(guó)传统制造业(yè)和现代农业的智能化提供了重要(yào)的、决定性的基础条件。
现(xiàn)有人工智能技术(shù)在实(shí)体经济中的(de)落地路(lù)径(jìng)
在实体经(jīng)济特别(bié)是(shì)制造业(yè)中,大量场景的自(zì)然形态非常复杂(zá),难以通(tōng)过场(chǎng)景裁剪使之符合强(qiáng)封(fēng)闭性准则。针对这种情况,可以采取场景(jǐng)改造的办法(fǎ)。目前至少有如下三条场景改造策(cè)略(luè),可以作为现有人工智能技术在实体经济(jì)中(zhōng)的(de)落(luò)地(dì)路径。
第(dì)一条落地路(lù)径:封闭化。具体(tǐ)做法是将一个自然(rán)形态下的非封闭(bì)场景加以(yǐ)改造,使得改(gǎi)造后的场景(jǐng)具(jù)有(yǒu)强(qiáng)封闭性。场景改造在制(zhì)造业中(zhōng)是常(cháng)见的,也是(shì)成功的。例如汽车制造业,原(yuán)始的生产过程(chéng)是人工操作的,其中包含大量不确定性,不是封闭性场景。建设汽车(chē)自动化生产线的本质,是建立一(yī)个物(wù)理的三维坐标系,使得生产过程中出现的一切(如车身、零件、机器人和其他(tā)装备(bèi))都在这个(gè)坐标系中被精确定位(wèi),误(wù)差控(kòng)制在亚毫米(mǐ)级以下(xià),从而把非封闭的场景彻底改造为封闭的(这种改造在(zài)工(gōng)业上称为“结构(gòu)化(huà)”),于是各种智能装备和(hé)自(zì)动化设备都可以自动运行,独立完成生产任务。这(zhè)种封(fēng)闭化/结构化策略正在越来(lái)越多地应用(yòng)于其他行业,而且智能化程度不断(duàn)提升。
第二条落地路(lù)径:分治法。一些复杂的(de)生产过(guò)程难(nán)以一次(cì)性地(dì)进行(háng)封闭化,但可以从整个(gè)生产过程中分解出一些环节,对这些(xiē)环节(jiē)进行封闭化,使之符合强封(fēng)闭性准则;而不能封闭化的环(huán)节继续保(bǎo)留传统生产模式,各个环节之间通过移动机器人进行连(lián)接。这种策略已被(bèi)奥迪(dí)等大型(xíng)企(qǐ)业(yè)采(cǎi)纳,其实对较小型企业也(yě)是适用的。
第三条落地路径:准(zhǔn)封(fēng)闭化。在服(fú)务业和人(rén)机协作等场(chǎng)合,普遍存在着(zhe)大量无(wú)法彻底封闭化的场景(jǐng),这时可(kě)考虑采取“准封闭(bì)化”策略:将应(yīng)用场(chǎng)景中可能(néng)导致致(zhì)命性(xìng)失误的(de)部(bù)分(fèn)彻底封(fēng)闭化(huà),不会出现致命性失误的(de)部分半封(fēng)闭化。举一个运输业的例子,高铁系统的行车(chē)部分是封闭化的,而乘客的活动不要求封闭化,在遵守(shǒu)相关规定(dìng)的前(qián)提下可自由活动。对于服务(wù)业的很多场景(jǐng),只要满足失误非致命性条件,就可以放(fàng)宽封闭性程度要求,因为适当(dāng)条(tiáo)件下,这(zhè)些(xiē)场景中的(de)人可以弥补人工智(zhì)能系统的(de)不足。
因此,强封闭性准则并非简(jiǎn)单地要求一个(gè)场景在自然形态下(xià)满足该(gāi)准(zhǔn)则,而是(shì)指出一个(gè)目标(biāo)方向,并通过场景裁剪或场景改造,只要裁剪/改(gǎi)造后的(de)场景符合强封(fēng)闭性准则,就可(kě)以在(zài)该场景中应用现有人工智能技术(shù),实现产业升级。
不满足强(qiáng)封闭性准则(zé)(包(bāo)括无法通过场景(jǐng)裁剪(jiǎn)或场景改(gǎi)造满足准则)的(de)场(chǎng)景也是大量存在的,现有人工智能技术在这些场景中难以实用(yòng)化(huà)。一个(gè)典型例子是开放领域(yù)的(de)人机对话。由(yóu)于这(zhè)种对话(huà)的提问(wèn)集不是有限(xiàn)确定的,无法收集、标(biāo)注所有代表性提问数据(jù),也(yě)无法写出足够的(de)规则描述(shù)提问或对(duì)应(yīng)的回答,因而无(wú)法用现有人工智(zhì)能技(jì)术完全(quán)实(shí)现开放领域的人机(jī)对话。
尤其值得注意(yì)的是(shì),目前国(guó)内外人工(gōng)智能应用都没有(yǒu)充分(fèn)体现强封(fēng)闭性(xìng)准则,具体表现是:一方面选(xuǎn)择(zé)了(le)自然形态下不符(fú)合强封闭(bì)性(xìng)准则(zé)的应用场景,另一方面又没有进(jìn)行充(chōng)分(fèn)的场景裁(cái)剪或场景(jǐng)改(gǎi)造。因此,人工智能应用的现(xiàn)实情况不容乐观。近来,国外媒(méi)体(tǐ)开始注(zhù)意(yì)到人工智能初(chū)创企业发展不顺的(de)情况,却只报(bào)道现(xiàn)象,没有分(fèn)析深层原因。本文的观察(chá)是直截了当的:人(rén)工智能技术(shù)落地(dì)不顺利的原因不是现有人工智能技术不具备应用潜力(lì),而是因(yīn)为这些落地项目没有通过(guò)充分(fèn)的(de)场(chǎng)景裁剪或(huò)场景改造,以确保符合强封闭性准则的要求。
人工智能的风险分析
人(rén)工智(zhì)能技术具有正、反两方面的作用,在造福于人类的同时,也存在各种(zhǒng)风(fēng)险。理论上可能存(cún)在四(sì)种风险:技术(shù)失控、技术误用、应(yīng)用风险、管理失(shī)误。从(cóng)封闭性准则的(de)视角分析这些(xiē)风险,可以得出更符(fú)合(hé)实(shí)际的观察。对四种风险的具体分析(xī)简述如(rú)下。
风险1:技术(shù)失(shī)控。技术(shù)失(shī)控(kòng)指的是技术的(de)发展超越了(le)人类的控制能力,甚至人类被技术控(kòng)制,这是很多人最为担忧的风险。上面的(de)分(fèn)析表明,现有人工智(zhì)能技术仅在满足(zú)强封闭性准则的条件下,才可(kě)发挥其强大功能;在非封闭(bì)的场景(jǐng)中,现有人工智能(néng)技术(shù)的能(néng)力远远(yuǎn)不如(rú)人类,而现实(shí)世界(jiè)的大部分场景(jǐng)是非封闭的。所以,目(mù)前不(bú)存在技术失控风(fēng)险,并(bìng)且未(wèi)来只要依据封(fēng)闭性准则(zé)做到(dào)以下三(sān)点,仍然(rán)可以避免(miǎn)技术(shù)失控。第一(yī),在封闭化改造中,不仅考虑产业或(huò)商(shāng)业需求,也考(kǎo)虑改造后场(chǎng)景的可控性,这种考(kǎo)虑不应局(jú)限于单(dān)个场景,而应通过行业标(biāo)准批量式地(dì)制定和落(luò)实。第二,在对(duì)适(shì)用于非封闭性场景的人工智能新技术(shù)的研发中,不仅(jǐn)考虑技术性能,也考虑新技术的伦理风险及其可控(kòng)性。第三(sān),在对具有特殊(shū)需求的人工智能新技术(shù)的研发中(zhōng),不仅考虑(lǜ)特殊(shū)需求的满足,也考虑新(xīn)技术的伦理风险和应用(yòng)条件,并严(yán)格控制(zhì)这些技术的实际应(yīng)用。
风(fēng)险2:技(jì)术误(wù)用。与信息技术相关(guān)的技术误用包括数据隐私问题、安(ān)全性问题和(hé)公平性问题等,人工智能技术的应(yīng)用可以放大这(zhè)些问题的严重(chóng)程(chéng)度,也可能(néng)产生新(xīn)的技术误(wù)用类型。在现有条件下,人工(gōng)智能技术本身(shēn)是中(zhōng)性的,是否出现误用完全取决于技术的使用。因此,对人工智能技术误用的重(chóng)视和风险防(fáng)范应(yīng)提上议事日程。值得注意的是,根据封闭性准则,现(xiàn)有人工智能技术仅在封(fēng)闭(bì)性场景中有效(xiào),而对于这种场景中的技术误(wù)用,至少理(lǐ)论上是有办法应对的,所以应该积极对(duì)应,无须恐惧。不仅(jǐn)如此,应用(yòng)自动验证等现(xiàn)有技术,可以(yǐ)消除或(huò)减轻某些技术误用(yòng)的(de)风险(xiǎn)。
风险3:应用风险。应用风险指(zhǐ)的(de)是技术应用导(dǎo)致(zhì)负(fù)面社(shè)会(huì)后果的可能性。目前人们最担心的是人工智能在(zài)某(mǒu)些行(háng)业中的(de)普遍应用导致工作岗位(wèi)的大量(liàng)减(jiǎn)少。应用风险(xiǎn)是由技术的应用(yòng)引起的(de),因此关键在于对应用(yòng)的掌控(kòng)。根据(jù)强封(fēng)闭(bì)性(xìng)准(zhǔn)则,人工(gōng)智能技术在实(shí)体经济(jì)中(zhōng)的应用往往需要(yào)借助于场景改造,而(ér)场景改(gǎi)造完(wán)全处于(yú)人类的控制之下,做多做少取决(jué)于相关的产业决策。因此(cǐ),在强(qiáng)封闭性条(tiáo)件(jiàn)下,应用风险是可控的;同时也意味着,产业决策及相关的风险预(yù)测是应用风险(xiǎn)防范的重点。
风险4:管理失误。人工智能是一项新技术(shù),它的应用是一项新(xīn)事物,社会缺乏管(guǎn)理经验,容易(yì)陷入“一管就死,一(yī)放就乱”的局面。为(wéi)此,更需要深入理(lǐ)解人工智(zhì)能(néng)现(xiàn)有成果的技术(shù)本质和技术条件(jiàn),确保(bǎo)监管措施(shī)的针对性、有效性(xìng)。封闭性准则刻画了现有人工智能技术的能力边界,从而(ér)为相(xiàng)关治理措施的制定提(tí)供了依据(jù)。同(tóng)样,当未来人工智能技术超越了强封闭性条件,那时人类就需(xū)要某种把(bǎ)握未来人工智能(néng)技术(shù)本质的(de)新准则(如封闭性准则2.0)。还(hái)应(yīng)看到,人工智能伦理问(wèn)题不是一个(gè)单纯的风险管控问题,而需建设一个(gè)将监管与发展融为一体的完整伦理体系。
以上(shàng)分析表(biǎo)明,封(fēng)闭性准则帮助我们形成对各(gè)种(zhǒng)风险的(de)更具体、更明确(què)、更贴近实际的认识(shí),三点(diǎn)主(zhǔ)要观察概括如下。第一,短(duǎn)期内不(bú)存在技术失控(kòng)风险(xiǎn);对(duì)长期风险来说(shuō),应关注适用于非封闭性场景的新(xīn)技术,而强封(fēng)闭性准则为(wéi)保证(zhèng)这种技术的风险可(kě)控性提供了(le)初步指导(dǎo)。第(dì)二,技术误(wù)用和管理失误是目前的主要风险(xiǎn)来源,应重点关注,着力加强研究。第三,应用风险尚(shàng)未出现,未来出(chū)现的(de)可能(néng)性(xìng)、形(xíng)态及(jí)应对手段需提(tí)早研判(pàn)。
AI人工智能的发展,带给人类(lèi)便利,同时也伴随着风险(xiǎn),怎样(yàng)有效利(lì)用人工智能(néng)优势,来避免危害,也是未来不断(duàn)追求的。