第七章 后专业时代
当我们2010年开始筹划写这本书时,主要的关注点在于讨论未来专业工作将何去何从。但是在我们研究和写作的过程中,我们意识到,由于两大原因,如果把注意力都集中在目前的专业工作上就显得过于狭隘了。首先,当我们思考专业工作存在的根本意义,当我们为专业人士所扮演的角色寻找相关理论,我们发现了一个更为基本也更加重要,需要得到解答的问题——人类社会究竟应该如何来分享实践经验?随着研究逐步深入,我们开始明白通过专业人士只是其中的选项之一。
在印刷工业社会,为了解决人类与生俱来的缺陷,也就是有限认知,专业机构作为一种标准解决方案,开始扎根。当人们在生活中遇到某种情况,需要用到一些特定知识,我们就自然而然会去找专业人士求助,但我们并不能就此认为至今这仍是唯一或者最佳的方案。我们应该保持开放的思想拥抱各种可能性,我们从印刷工业社会向技术互联网社会进化的过程中,会出现新的方法。我们应该对这些新方法进行考察。
这种思路也引导我们得出了不应当把研究对象局限在专业工作的第二个理由。当我们接触到前沿性工作时,我们发现技术和互联网不仅被用于改良以前的工作方法,它们也带来了更加根本的变化。它们创造了新的方式,让获取实践经验变得空前容易。因此,进入我们视野的不仅仅是在传统专业工作范畴内所找到的各种改进,更加吸引我们的是系统如何大幅提高了实践经验的普及程度,提高了人们解决问题的能力。
因此简单说来,我们在着手写这本书的初期就确信,如果只研究专业工作的未来,那就本末倒置了。那样就会把自己限制在过去和现在的制度中,忽略了新出现的分享实践经验的可能性和能力。
总之,我们决定这本书应当既从如今的专业工作出发,同时也研究将要取代它们的事物。
关于如今的专业工作,我们认为它们将会经历两组平行的变化。第一组主要来自于自动化。传统的工作方法在技术的帮助下,将被简化和优化。第二组变化则由创新活动来主导,日益完善的系统会改造专业人士的工作,并且催生出分享实践经验的新方法。长远看来,第二种未来将会胜出,现在的专业工作将被全面瓦解。像我们在前文中提过的,将来在某些特定场景下,还会需要传统专业人士,但这一需求是逐年下降的。另外,有些属于专业人士的全新社会角色会出现,尽管现在的专业人士会质疑这些角色是否能够得上专业属性;许多新角色到了一定阶段,也同样会被新系统和其他人取而代之。对于专业工作来说,这些打击无法避免,再过几十年,如今的专业人群在社会上的重要性将显著降低。
那么专业工作时代过后会怎样呢?长远看来,什么样的人和系统会取代专业工作?为了回答这些问题,又引出了一系列难题。在我们深入展开之前,必须为大家提个醒。只对接下来十年将要发生的事情感兴趣的读者应当直接跳到本书的结论部分。同样的,不注重理论、偏重实用研究的读者也应该考虑直接跳过本章剩下的内容。
现在我们邀请剩下的读者加入我们接下来的旅程,但我们并不会去医院拜访医生,不会去法庭找律师,也不会去教室里见老师。相反,我们会一起去面对三类航母级的大问题。
第一类问题是,未来机器的智能之处在哪里,它们的局限性又在哪里,这些机器会不会像人类一样思考并且拥有意识?未来,专业工作的那些传统任务中还有多少需要人类来执行?这些问题引导出了第二类问题——技术性失业,机器是否将无情地让大部分人类面临失业?最后一类问题,我们要应对一种质疑意见,它认为“解放实践经验、把所有信息公布到互联网上的想法非常好”,但这样的想法既不切实际也不可行。
7.1 日益能干却并不思考的机器
本书的核心主题在于,我们的机器和系统都在变得越来越能干,假以时日,在许多任务上它们必将超越人类的水平。我们再次强调,在对技术进行吸收和利用的竞赛中并没有终点。我们看到势不可挡的进步潮流,由市场力量和人类智慧驱动着,每项新发明都从基础技术的指数级增长中不断汲取着能量和能力。
许多观察者会对系统的智能程度,以及未来机器是否会和人类一样拥有意识提出疑问,这很容易理解。从20世纪中期,人工智能专家就开始思考这些神秘的问题了,这个基本的谜题也已经困扰了哲学家们千百年。读者朋友们请不要惊讶,在这本书里我们并没有完成破解,也没有找到答案。但是在这一章里,我们的确从不同的角度谈到这个问题,与此同时我们回到了一个常见的误区——AI谬误——它使我们观察专业工作的未来的视线变得模糊。
之前我们写到过一系列已经面世的技巧和技术,它们已经能够出色地完成许多任务。也许最为引人注目的是IBM的Waston,当这个计算机系统2011年出现在智力竞赛电视节目Jeopardy上,并打败了两位有史以来最厉害的人类选手,它因此而一举成名。关于这次壮举有许多报道,但哲学家约翰·塞尔(John Searle)在《华尔街日报》上的评论的标题是最机智、最深刻的:“Waston并不知道自己在Jeopardy上获胜了。”我们还能继续发挥下去,Waston虽然获得了巨大胜利,但它并没有大笑或者大哭的冲动,也没想到要去喝一杯庆祝一下,或者和亲密朋友分享喜悦、聊聊感受,或者对那些刚刚被它打败的对手表示怜悯。不管是事前还是事后,Waston也都没有梦到过这场胜利。当然,IBM有能力预先设计一些欢呼、笑声、情感表达以及回忆功能,但是这些输出并不会让系统拥有意识和感觉。Watson是一个伟大的系统,但它的设计者和使用者都不会认为它会像人类一样具备想法和感情。
Waston无法思考这件事情有关系吗?在尝试回答这个问题的过程中,我们挖掘出开发人工智能的一系列动机。我们从20世纪80年代早期开始观察人工智能领域,当时我们发现有许多研究派别。其中有心理学家和一些人工智能科学家希望通过研究AI来加深对人类大脑的认识;也有计算机科学家认为创造人工智能系统的最佳途径是采用神经学家和心理学家所描述的人类思维和大脑运作模式;还有哲学家把几百年前关于意识的理论加入到讨论中。最后,专家系统工作人员——通常情况下——会参考人类“如果……那么……”的决策思考流程,把这些复杂的决策过程变成非专家可以通过导航完成的任务。我们属于最后这一派,并且参与开发了法律、审计、税务甚至医疗领域的专家系统。但是,我们对其他三类研究派别的工作非常感兴趣,倒不是因为对我们的工作产生过多少帮助,而是因为这些派别的相关著作十分引人入胜。我们是世界上第一套商业级别的法律专家系统的联合开发者,但我们从未把大脑运作的复杂模式作为开发基础,也并不认为我们的系统能够对心理学或哲学做出贡献,而且也不相信这个系统拥有意识或能够思考。但是我们确信这个系统是有用的,它的表现可以超越任何人类律师。我们的系统就像Watson一样无法思考,也远不如Watson那么有影响力,但我们的系统依旧表现非常出色。
用当时一些人工智能科学家和哲学家的话来说,这些系统的标签,也许带点鄙视,只能是“弱人工智能”,而够不上“强人工智能”。总体说来,“弱人工智能”所指的是能够在行为上表现得类似人类的智能系统,但其实它们并没有意识;而“强人工智能”则指的是那些真正具备思维能力和认知状态的系统。后面这种观点常常把人类大脑和数字电脑等同起来。
如今,“强人工智能”的风靡程度胜过以往任何时候,尽管有许多极为重要的问题还没有得到答复,而我们也无力回答。如何才能了解机器所拥有的意识是否和人类一样?为了回答这个问题,我们又从何知晓所有人类所拥有的意识都是一样的?或者再换个问题,我们如何确信某人(除了“我”以外)是拥有意识的(这是“其他心灵”的问题)?人类并没有被这些哲学问题吓退,围绕构建大脑和创造意识的相关书本和项目层出不穷。20世纪80年代期间,我们曾经用人工智能之父马文·明斯基(Marvin Minsky)说的话来开玩笑,他曾经说过,“下一代的计算机会变得极其智能,它们如果不把人类变成宠物,我们就该感到十分幸运了”。如今,认为计算机将变得比人类更智能的观点不再被人们嘲笑,也不局限于科幻小说了——牛津大学人类未来研究院的院长尼克·波斯特洛姆(Nick Bostrom),在他写的《超级智能》(Superintelligence)一书中详细探讨了这种前景。关于“强人工智能”的信心的不断增长,至少某种程度上,来自于Waston的成功。有些讽刺意味的是,Waston本身归属于“弱人工智能”类别,也正是因为它无法进行有意义的思考,才导致有些人工智能科学家、心理学家、哲学家对它不那么感兴趣。但是对于实用主义者(比如我们)而不是纯粹主义者,Watson究竟属于“弱”还是“强”人工智能并不那么重要。无论它会不会思考,实用主义者对高性能的系统,都很感兴趣——Watson不需要掌握思考技能就能够脱颖而出。计算机也不需要会思考、拥有意识才能通过图灵测试。这个测试严苛地要求一台机器能够骗过用户,让他们相信自己在和人类互动。一个弱人工智能系统原则上也能够通过图灵测试,因为在这项测试中对智能与否的判断仅仅取决于行为表现。表面上,机器和一个有知觉的人类做出的反应可能难以区分,但这并没法帮我们推断计算机是有意识或者会思考的。
事实上,“弱人工智能”其实并不那么弱。这种弱是根据人工智能无法复制人类大脑及其意识推断出来的结论。但即便有些弱系统无法思考,操作方式也和人类不同,它们正在变得越来越强大,甚至超越了人类的水平。
许多年前我们在另一个人工智能领域(至少早年人们这么认为),语音识别领域发现过这种情况。开发能够识别人类语音信息的系统这一挑战最终是借助蛮力计算和统计学才实现的。一个能够区分“抱负”和“报复”的高级语音识别系统,并没有像人类那样依靠前后语境来理解区分,而是依靠统计分析大量文件数据去辨别。比方说,哪些词更可能和“抱负”连在一起使用。这样一来我们的确能够创造出非凡的、高性能的机器,它们无法思考,也并非复制人类智能模式而来。早在1985年,这一点就已经被诺贝尔奖得主理查德·费曼天才地预见到:
有些人看着运作中的大脑所产生的活动,发现大脑在许多方面超越了今天的电脑,但电脑同样也在许多方面胜过人类大脑。这不断激励着人们去设计更能干的机器。通常的状况是工程师按照他所想象的大脑工作原理去设计相应运作机理的机器。这部新机器很可能运作非常良好。但我必须提醒,这其实和大脑的实际工作原理没有任何关系,其实为了使计算机变得更强大,根本没必要去搞明白这事。就像在制造飞行器的过程中,没必要去了解鸟类如何拍打翅膀以及羽毛的工作原理。为了制造能够快速前进的有轮汽车系统,并不用去学习跑得飞快的猎豹如何利用腿与腿之间的杠杆系统。因此为了制造出能够多方位胜过大自然的装置,并不需要去细致地模仿每一种自然现象。
国际象棋大师加里·卡斯帕罗夫(Garry Kasparov)提出过类似的观点,而且对他而言,个人感受更为深刻。1997年,卡斯帕罗夫是当时的世界国际象棋冠军,但他被IBM开发的国际象棋系统“深蓝”全面打败。某种程度上,他所经历的是一次不同的比赛,用卡斯帕罗夫的话来说是:
人工智能世界,尽管对比赛结果、对世界的关注程度很满意,但深蓝本身,却和人工智能前辈们几十年前所想象的,能够成为国际象棋冠军的那个梦想机器相去甚远。这台计算机无法像人类一样思考或下棋,它没有创造力和直觉,相反他们看到这台机器只是每秒钟系统性地评估两亿种可能的下法,最终通过蛮力计算获得了胜利。
这里所传达的信息应该很清楚了——我们可以开发出高性能、不思考的机器,即使它们有着自己的工作方式、和人类做法相当不一样,这不影响它们超越最为杰出的人类专家。对于专业人士来说,这里的信息也是相当明显了。我们不需要先去理解再去复制人类专家的工作方式,我们也并不需要能够思考的机器才能取代许多人类专家的工作。1988年我们已经开发出法律专家系统,证明过这件事了。但是我们发现,学者、从业人士、记者常常认识不到这一点,他们都犯下了AI谬误。
7.2 对人类的需求
许多年以后,高性能、不思考的机器用着它们那非人类的方法,比顶级人类专家更为出色地执行着各种任务。这样一来,对于那些目前由人类专家来执行的任务,长远来看的话,在多大程度上还需要人类呢?在一个机器变得越来越能干、越来越常见的世界里,人类专家会变成什么角色?如果在技术互联网时代,这些无处不在、不思考、高性能的机器能够完全满足我们的需求,那人类将何去何从呢?
这里其实隐含了两个问题。第一个问题在于未来的系统是否能够以超过顶级人类专家的水准,执行所有的任务。第二个问题是针对一部分特定任务的,即便能够交给自动化机器去执行,其完成质量也会高于人类专家,我们是否仍然会选择把这些任务交给人类去完成?
人类专家和机器各自拥有的能力
为了解答以上第一个问题,让我们来想一想专业人士在日常工作中所展现出来的四种能力。首先是认知能力——思考、理解、分析、推理、解决问题、再反思;第二种是情感能力——拥有感觉和情绪,内省的或对外的;第三种是动手能力——物理和心理运动能力;第四种是道德判断力——能够区分正确与错误(好与不好、正义与非正义等),可以进行对错的推理,以及更为重要的一点,能够为所做的选择、决策、提供的指导以及自身的行为承担责任(已经判断过对错的行为)。心理学家和哲学家无疑会提出不同的分类,甚至希望对它们再进行细分,指出其中的重复交叉概念。我们的确采用了简化的方法,但我们相信它已经说明了问题的关键。
当我们用描述人类行为的词句来表达对机器的怀疑论时,会显得特别具有说服力。比方说,当我们主张说:“机器永远没法具备思考能力或感情,拥有手艺人般的感官,或者决定哪件事才是正确的。”这样的思路听起来比较令人信服。确实,难以想象一台机器可以像法官那样清晰思考,像心理分析学家那样表达同理心,像牙科医生那样精巧地取出一颗智齿,或者对避税行为形成自己的道德判断。但是这里有个问题,我们在表达观点时所选的词语引导出结论本身。当我们使用“思考”“感受”“感触”或者“道德”来研究机器时,因为这些词汇本身是用来形容人类行为能力的,因此很可能在彻底展开探讨之前就把机器排除在外了。如果我们相信或坚持认为思考、感受、感触和道德是人类独有的体验,那任何人类以外的主体都无法复制它们。但是,哲学家会说,这个理论只在定义上成立。这是一个循环论证。如果我们把任务定义成人类特有属性的,那机器无法执行它们也就不足为奇了。这样分析问题最终将一无所获。
其实这里潜藏的问题还是我们的老朋友——AI谬误。我们应该避免总是从人类观点出发去看待宇宙万物。考量未来的机器是否具备超越人类的潜力时,关键问题并不是实现方式,而是最终结果是否优秀。换句话说,机器是否能够取代人类专家的评判标准并不是它们是否具备和人类同样的能力。我们需要关心的是系统能够提供超过人类的服务水准。因此当IBM的Waston在智力问答类电视节目上打败了最厉害的人类时,真正有意义的是Waston获得的分数更高,它是否和血肉之躯的对手一样具备认知状态是无关紧要的。
我们可以再精确一点,这里的根本问题是机器和系统是否能够执行任务,这些任务要求人类具备认知、感情、动手能力以及道德判断力,但机器和系统究竟具备什么能力去执行任务却并不相关。
对于认知类的任务,一种可行的方案是:机器负责解决相对简单明了的推理和问题,任务更为复杂时人类专家再加入。大多数专业人士都表示能够接受这个宽泛的说法:日常性工作可以交给机器,人类专家负责处理需要创造力、创新思维以及战略思考的棘手任务。但是这里有两个问题,问题之一,专业人士总是有意或无意地,倾向于夸大真正需要用到深厚专业知识的场景的发生频率。通常任务中所需要的创造力、创新思维以及战略思考部分,也只是任务的构成要素之一——就所花费的时间而言,暂且不考虑所创造的价值。专业人士如果对此表示怀疑,可以花上一天好好分析一下自己所经手的所有活动和任务,然后再问问自己其中哪些可以交给专业度相对较低的同伴去做。每天的工作场景中,真正需要专家的情况是如此之少,真相令人不安。问题之二,有些任务尽管目前很复杂(比如法律、税务和医药问题),但是它们能够被简化成日常性工作。这特别适用于那些在一系列紧密相关的法律法规框架中形成的任务——情况通常如此——此时系统通常能够比人类专家更好地完成任务。以上分析告诉我们,留给人类专家的任务应当需要用到某种认知能力而无法被日常化,也就是无论通过何种协议、算法、决策图标、核查清单或其他方式,都不能被简化成日常任务形式。这就是为人类专家所保留的领域吗?这就是人们可以创造独特价值的地方吗?为了回答这个问题,我们可能需要找出机器和许多专业人士的区别。
我们的假设是系统会变得越来越强大,那些如今无法简化成日常性工作的任务,未来也会被它们收入囊中。不思考、高性能的机器的工作方式和人类并不一样,越来越强大的机器(它们可能基于人工智能、大数据或者尚未发明出来的技术)推导结论和提供指导的方式在人类看来是属于富有创造性或者原创性的。系统会通过建立联系、识别规律和相关性去寻找解决方案,这种方式在我们看来是机智巧妙的,而且远远超越了我们的认知能力所能达到的水平。
因此如果把所有的专业工作作为整体观察对象,我们认为真正需要创新的只是其中一小部分任务,随着将来机器变得越来越能干,这一小部分为人类专家保留的领地还将不断缩减。
那人类专家的情感认知能力呢,也同样受到威胁吗?我们相信一开始有些场景是如此重要、敏感、情绪化,以至于只有人类同胞才能够提供恰当的帮助。对于将深度情感交流、与客户进行人际互动作为工作核心的专业人士来说,这种观点是让人安心的,但这种观点假设了这种人际互动无法被替代。
在前文中聊到可能执行同理心任务的系统时,我们更为全面地讨论过这个话题。我们承认同理心是一种值得珍惜的情感,但我们同时也想表达:许多人类专家其实是缺乏同理心的,因此人们不应该对系统提出比对人类更苛刻的要求;最终系统可能比人类做到更精确的情绪测量,并且提供人类所需的回应;在模拟同理心行为时,机器可能比虚情假意的人类显得更真诚,在激发用户积极情绪上,机器可能比真情实意的人类更有技巧;如果是一些比较尴尬或敏感的情景,有些人可能更愿意和系统互动来保持匿名性和隐私;另外,无论如何,比起十分昂贵、让人负担不起的传统服务,不具备同理心要素的在线服务价格优惠,有时甚至是免费的,比起完全得不到帮助的情况来说,显然高下立现。因此,认为实践经验只能通过具备感知和情绪的人类进行传播的观点是值得推敲的。
我们的论证逻辑应当十分清晰了。机器(不思考、高性能的系统)已经能够执行许多任务,而不久之前我们认为这些任务都是超出它们能力范围的,那么随着机器的能力持续得到提升,它们所能执行的任务数量也将增加,任务执行的效果和速度都会得到改进。这就是我们看到的大方向。关于第三种能力——动手能力,机器人领域正在取得稳步进展,将不断减少我们认为只有人类才能完成的各种精细操作。
最后我们来聊聊道德判断力,这一点会比较难,因为我们所要求的不单单是分辨对错的能力,还需要参照更高层次、更广泛的原则,还包括为自己所做的道德判断承担责任。未来的系统(比如说按照传统的、基于规则的专家系统)里完全可以阐明道德规则,让系统进行判断选择,辨别一致性和矛盾之处,指出判断中所用到的各种假设和前提,并且根据一系列前提判断得到合理的结论。这些系统会是一种特殊的道德哲学家,能够对伦理问题进行清晰梳理以及系统性推理。
但是很难接受这样的想法,把责任交付给机器人,或者把某些重要的道德判断交给机器,比如是否要关闭生命保障系统、是否要杀掉一只家养宠物、在离婚判决中把抚养权判给谁、是否应当优待大学申请人中的少数群体,等等。我们这么说并不是为了在事情出差错或者发展顺利时能够找到相关负责人(进行批评或表扬)。我们甚至希望在做出与每个人相关的决策和判断时,能够有所思考,甚至有所挣扎。在有些场景中,放弃人类的责任再转交给机器,无论这台机器多么高性能,总让人感觉不合适,甚至觉得那是个错误。
道德约束
那么,专业工作在机器和人类之间该如何进行分配——是不是有些任务只能够交给人类去执行?
接下去的讨论已经进入了生命的道德规范领域,和事实领域完全不同:我们关心的是应当怎么做,而不是事实是什么。在专业工作的场景中,需要在对与错之间寻找平衡,并对重大事件给出建议,我们认为此时必须得有人类的干预和参与。
在现代战争场景中,人们已经开始面对这个困境。对于专业士兵(军队职业)来说,人们一直在辩论计算机、机器人武器究竟应该自动化到何种程度。直觉告诉我们,任何导弹都必须由人类下达指令才能对人进行攻击,并且必须对相关决定承担责任。因此我们会认为,这就是机器的界限。但是如果战事正酣,敌方火力凶猛,有可能根本没时间等待人类决策,这就是为什么战场上的士兵在某些情况下无须向上级汇报,即拥有决定生死的自主权。这种权利下放并不是开放式的——它是受到培训和协议的限制的。同样的,自动化武器可以预先安装核查机制,根据系统设定的规则做一些原则性的、伦理方面的判断。拥有大规模数据分析能力的复杂系统甚至有可能比人类掌握更多信息,做出更好的即时判断。
我们举了军事方面的例子是想强调这件事绝不简单。尽管表面上我们认为所有的道德判断必须交给人类而不应当交给机器,但如果拿普通道德标准去衡量最终结果(比如说最小化平民伤亡),有可能发现人类的决策更糟糕,也有可能无法完成实际操作,再加上即便我们想对机器的某些用途加以限制,那怎样才是最好的方式?
这里没有简单的答案。我们也不认为有人可以找到放之四海而皆准的普适性原则。在讨论中,专业人士通常主张使用科幻小说作家阿西莫夫所提出的“机器人三定律”。尽管阿西莫夫是个天才,这三大定律也无比优雅,但仍然不具备足够的细节。比如,第一定律:“机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观”,这一定律无法帮助我们精确理解“伤害”和“危险”,或者在作为和不作为都会产生后果的情况下,解决道德层面的取舍。(为这种取舍举个例子,医生是否应当从一个缓慢死亡的病人身上摘下器官——这可能导致他的加速死亡——去拯救另外一个严重病危需要器官移植才能获救的病人?)在专业工作的相关讨论中,针对外行人士不需要专家的干涉和监督就可以获取实践经验的未来,我们需要超越一般情况,具体到各种特定情景中去探讨道德层面的现实限制。
20世纪80年代早期,我们曾经在英国看到过相似的辩论,主题是体外受精和试管婴儿这些新兴技术所产生的道德影响。当时还发动了一次全国性的意见征询,最终由哲学家玛丽·沃诺克(Mary Warnock)写成了一份具有影响力的报告。这个话题在媒体、公众、学术界以及科学界都引起了广泛的关注。这次征询加深了公众对这一核心问题的理解,即便主要的问题没有得到解决,但公众也相当深入地了解了这些技术的道德影响。我们建议,在系统变得更为能干之前,对于实践经验传播模式的相关道德限制,需要发动一场类似规模的辩论,甚至专业人士或者专业人士助理都不需要介入这场辩论。
毋庸置疑,我们认为如何在人类和机器之间划分界限这个课题如此重要,不能只留给专业人士去判断。而且如果他们介入讨论的话,显而易见会造成利益冲突。专业人士具备关键而深刻的理解和经验,应当参与到这场辩论中来,但是就像我们在介绍中所说的,如果我们把在何种程度上,技术能够以及应该取代专业人士的决定权交到他们手里的话,就好比让兔子去看管胡萝卜一样。
总体来说,很难回避这样的结论,在某种程度上,机器已经能够执行那些人类需要运用认知能力、情感能力、动手能力以及道德判断力才能完成的任务了。当机器变得越来越能干,我们对于“留给专业人士的,还剩下什么工作”的回答,将是十分艰难但又不容回避的——“越来越少”。
但是,我们同样认为,对有些工作来说,就算人类的水平比不上机器,我们也更希望由人类来执行。有可能是因为我们更看重其他伙伴的努力过程和想象力,而不那么重视结果本身。在选择购买雕塑作品时,我们可能更希望它是手工制作的,即便机器人可以做得更好而且更便宜。但是总体来说,我们认为这种对老式做法的偏好(通常是出于怀旧),其代价过于昂贵,如果和机器相比服务质量差很多的话尤其不合理。
7.3 技术性失业
1930年,凯恩斯在思考“我们子孙后代的经济前景”时引入了“技术性失业”这个概念,基本原理十分简单——新技术会导致人们失业。我们现在想要研究的问题是——长期来看专业工作领域是否存在技术性失业问题。答案很简单,“是的”。我们找不到任何经济原理,在机器变得越来越强大的过程中,可以保证专业人士的就业。但是,失业问题的波及范围是具有不确定性的。接下来,我们将解释为什么存在这种不确定性,我们还将为分析专业工作相关的技术性失业提供一个新的系统框架。我们需要小心使用就业这个词汇。除了分析技术对专业人士的“就业挤出效应”以外,我们还会分析工作的相应报酬水平。即便拥有全职工作,但收入无法维持生计,这也将成为问题。所以我们所关注的将是“合理收入的就业”。
热狗的故事
为了解释技术性失业问题,借用一个简化的故事比较有帮助,这是诺贝尔经济学奖得主保罗·克鲁格曼(Paul Krugman)用过的热狗的故事。我们一起来想象一家雇人来制作热狗的公司,这家公司只有三个任务——制作香肠、烘烤面包、把香肠和面包放到一起制成热狗。每个雇员都只专注于其中一件工序——每个雇员在这家公司将只能拥有一个职位,香肠制作人员、烤面包师或者热狗组装人员。起先,假设公司里没有机器,也就是说公司必须为这三种职能雇用不同的人。然后,假设有一种制备香肠的自动化设备被发明了出来,它的生产力要高于一名雇员,而成本又要低廉许多。对于以营利为目的的公司来说,不再使用工人,而是购买安装这台设备来制作香肠,从商业角度来看是合理选择。结果就造成了香肠制作人员失业。
接下来有两种可能性(其实还有更多可能性)。第一种情形,从前的香肠制作人员为了赢回曾经的工作,愿意接受薪水削减,和机器竞争上岗。或者,他们通过学习新技能尝试转行,与烤面包师、热狗组装人员竞争岗位。在这种情形下,烤面包师和热狗组装人员的收入就可能被压低。这两种情形同样可能带来技术性失业。从前的香肠制作人员降薪之后可能仍旧无法和机器的成本竞争,或者他们无法学会新技能来完成转行。如果希望转行的香肠制作人员愿意接受非常低的薪资条件,烤面包师和热狗组装人员也同样会因此而失业。但是,失业并不是唯一的可能性。有一种选择可以让所有人都保住工作——香肠制作人员习得新技能之后,加入烤面包师和热狗组装人员,所有人都接受较低的收入水平。
除此以外,还有一种可能的后果,但是在人们研究技术性失业时常常被忽略。如果使用机器可以降低香肠制作成本的话,那么生产每个热狗的总成本也会下降。如果公司因此决定降低热狗售价,而热狗的市场需求对于价格是敏感的,那么热狗销量会上升,公司需要提高产量去满足市场的胃口。这种变化是至关重要的。它意味着,在使用机器之后,总的工作量反而上升了——为了生产更多的热狗,公司需要制作更多的香肠,烘烤更多的面包,最后还需要组装更多的热狗。因此,尽管香肠制作人员的工作会消失(那些输给机器的工人),对烤面包师和热狗组装人员的需求却更大了,因为机器带来了热狗总产量的提升。如果被创造出来的新的就业需求和失业人员的数量相匹配,并且原来的香肠制作人员能够学会新工作所需要的技能,那我们就不需要为这家公司的工人们担心了。新创造出来的职位可以吸收这些工作被摧毁的人员。
我们承认热狗故事只能算得上对食品工业的一个极度简化表达,但是它的确证明了一个问题:技术是把双刃剑,它既具备消灭人类工作的毁灭性,也能创造新的需求、新的工作。
接下来的故事情节很重要,之前我们都假设每份工作都由一种任务构成。但实际上,每个人所从事的工作都基本是一系列任务的组合。一份工作本质上往往有许多任务构成,而不是某一件特定任务。这点和本书的主题之一相呼应,专业工作的实质内容往往可以被分解成一系列任务。技术性失业的许多讨论都忽视了这一点,它们都假设工作只是由单一任务构成的。事实上,系统并不能完完全全取代人类的角色。它们其实只是从人类手里接过了一些特定的任务。工作并不是一夜之间消失的,它们都是慢慢退出舞台的。一份工作只有在所有相关任务都消失,也没有新的任务再补充进来的情况下,才算完全被消灭了。
让我们再次回到热狗的故事,假设热狗公司的所有工作岗位都需要执行这三种不同的任务,我们仍然应该安装机器来提高其中一项任务(香肠制作)的工作效率,但是这时对工人产生的影响就不同了。他们可以不再制作香肠(交给机器),而把精力转移到烘烤面包和组装热狗上(毕竟机器还不能干这个)。最终,这些新机器改变了人们的工作内容,但是这会引发一种新的担忧。剩下的任务全都进行重新组合之后,留给人类的工作总体来看会不会仍然比原来少呢?一方面,人们所负责的任务数量变少了(从三种变成了两种);另一方面,制作每根香肠以及每个热狗的成本都相应降低了。如果这次公司还是决定把这部分节省通过降低售价的形式让利给市场,需求受到刺激之后相应增加,那么公司仍然需要扩大生产才能满足需求。那么严格意义上,这就意味着三种任务的需求量都增加了。尽管结果仍然是由机器来准备香肠,但烘烤面包和组装热狗这两项任务的需求增长了,因此总的来看对人工的需求仍然是增加的。
当然,如果能够烘烤面包甚至组装热狗的新机器也被开发出来,那么故事情节就完全不同了,但是核心问题仍然是——对于由许多任务组成的人类工作来说,新技术究竟具备更大的创造力还是更大的破坏力。
三大核心问题
热狗故事帮助我们更系统地学习了技术性失业的概念,让我们意识到必须对三个不同的问题加以区分。
问题一:需要被完成的新任务总量是多少?
在热狗故事里,引入一台更高效的机器意味着热狗的单位生产成本下降。如果公司愿意相应降低售价,而热狗的市场需求对于价格是敏感的,那么热狗的产量也需要相应提高。如果不只是一家公司,而是整个经济体都用上了更为高效的机器,那么经济的总产出就增加了——有了这些新机器,个人和公司都能够利用同等资源完成更多产出。在更宽泛的经济范畴内,更多的任务需要被执行、被完成。
问题二:这些任务的本质是什么?
在热狗故事里只有三种任务类型,但在整个经济范畴内,任务的种类远远要多得多。按照这个逻辑,新机器出现导致经济总量增加,那么在已有任务的基础之上新增加的任务也需要被分配、被执行。所有这些任务,已有的也好、新出现的也好,都各自属于某种类型。
问题三:谁更具备执行这些任务的优势?
某些任务由人类来执行更为有效,而有些则是机器更占上风。人类和机器之间的优势边界,始终处于变化之中。那些对于未来就业情况持有悲观态度的人担心,许多曾经只能由人类来完成的任务都将由新技术来接管。他们所担忧的是留给人类的工作就很少了。这类悲观人群通常被称为“新卢德派”(Neo-Luddites)。但是,他们的代表只关注问题三——对于某种类型的任务来说,人类和机器各有什么样的优势。他们没有考虑到新技术是否会提高经济总产出,是否会增加需要执行的任务总量(问题一),以及这些新任务是否属于人类更加具备优势的类别(问题二)。悲观派有理由认为过去人们承担的某些类型的任务将不再需要他们了,但是他们犯下的错误在于默认这些任务将由机器来完成,而且这些新增任务都属于机器比较具备优势的类别。所以换句话说就是,会有新的任务等着人类去接手。
现在让我们来了解一下乐观派。他们认为悲观派代表的出发点来自于“固定劳动总量谬误”,他们认为支付合理报酬的工作总量是固定的,这么多工作将在人类或机器之间进行分配和分包。基于问题一的答案,乐观派足以认为悲观派是错误的。如果一项新技术更加具备生产力,那么它将有助于增加总产出,这时就会出现更多工作,人类也就有更多工作可做。劳动总量并不固定,支付合理报酬的工作量其实是与时俱增的。但是,乐观派也只观察了问题一,即生产力的提升是否会增加总产出,并且创造更多任务,他们忽略了问题二和问题三。他们似乎并没有意识到,除非新创造出来的任务属于比起机器人类更具备优势的类型(问题二),否则作为人类,也没什么值得庆祝的。新机器直接就把新任务接管了。乐观派认为工作总量会增加是没错的,但他们不能不去思考,究竟人类还是机器更具有承接这些新任务的优势。
不过,无论是乐观派还是悲观派,我们都建议他们把三个问题结合起来思考,这样才能对越来越强大的机器将对支付合理报酬的工作产生什么影响进行正确的思考。这三大问题共同构成了技术性失业的争论焦点。如果新技术创造了大量新的增量任务,而人类具备更多优势去执行其中一些类别,那么关于技术性失业的焦虑就属于杞人忧天了。另一方面,如果新技术并不创造任何增量任务,或者所有新增任务都属于机器更具备优势的类别,那么技术性失业的确或多或少难以避免了。
7.4 技术对专业工作的影响
长远来看,这些分析对专业工作意味着什么呢?毫无疑问,大多数专业人士都希望对于大多数医生、律师、老师等人,未来继续会有支付合理报酬的工作岗位。这样的期望是否现实呢?
专业工作中的技术性失业
现在让我们带着刚才的三大问题来分析专业领域,如果我们预期专业人士比机器更具备竞争优势的任务种类会缩减,那么为了避免技术性失业的情况发生,就必须在人类能够保持优势的任务种类内部保持足够的增长。事实上,这些任务需要一个不断加速的增长率——因为专业人士具备优势的任务将越来越少,每当一种任务被移交给机器,受到影响的专业人士数量就会越来越多,剩下的、人类具备优势的、可供用于分配的任务种类就越来越稀少,每种任务需要负担的就业任务就越重。换种方式来说,数量减少之后的那些任务(也就是那些人类专家仍然具备优势的类别)需要为更多专业人士创造就业岗位。简而言之,随着时间流逝、机器变得更能干,为专业人士创造充足的支付合理报酬的就业机会将变得越来越困难。
现在让我们再具体分析一下这三个问题,让单薄的理论丰满起来。
首先,未来的专业任务可能达到什么数量?总的来说,我们预计任务的总数会显著增加。一方面是由于经济持续增长,收入会增加,对实践经验的需求也会相应增长;另一方面是因为对于专业工作存在大量潜在需求——目前有许多并未得到满足的实践经验需求。按照专业工作目前的组织形式,无法为所有能够从中受益的用户提供服务。我们所建议的新的知识生产和传播模式更有可能把实践经验变得更加易于获得,也就是说这些新模式更有希望让那些潜在需求得到满足。这两部分原因都会带来可观的新增工作量,专业任务也会相应显著增加。
其次,这些任务都属于哪些类型?对于专业人士所从事的传统任务,许多从业人士都会不假思索地认为他们日常处理的工作要比经济活动中其他非专业人士的工作更复杂、更具挑战性。我们在这本书里试图向大家证明这种直觉通常是错误的,并且对专业机构以及它们的工作进行解密。我们的主要观点是一旦专业工作被分解成更为基本的任务,我们就会发现其中大部分和其他非专业岗位的任务也没有太大差别,但是有些任务也的确需要更为复杂的认知能力、动手能力和情感认知力才能完成。此外,需要用到道德判断力的任务可能更具备专业工作的代表性,但是我们也要十分注意,不要过度夸大这类专业活动的重要性。如果说所有的专业工作都需要满足严苛的道德要求那就不够诚实了。我们预测这些新工作也能够进行任务分解,和传统工作的分解结果一样,其中一部分比较简单明了,另一部分可能会比较复杂。
最后,究竟谁更具备优势来执行这些专业任务,是人类还是机器呢?在更为广阔的经济体中,本书对技术的相关分析表明,对于多数类型的任务,机器相比人类将占据越来越多的优势。这是因为许多看似非日常性的任务都可以被日常化,甚至很多的确无法被日常化的任务都能够由机器来执行。但是,有个重要的例外,人们可能希望保留进行重要道德判断、道德抉择的任务,因此这些任务不太可能移交给机器去执行。
这三个答案放在一起,对于未来专业工作领域,支付合理报酬的就业机会意味着什么呢?我们预计过些时间——可能是十几年,也可能需要几十年,但绝不是一夜之间——专业工作领域的确将发生技术性失业。换句话说,人类占据优势的那些专业任务类型将会面临增长率不足的问题,因此无法保证多数专业人士能够得到全面就业。我们无法为这三个问题提供确切答案,因此,我们不能预测那时的失业问题的规模。但是当我们把本书中的研究所得都考虑进来,有三大理由让我们确信失业确实是大势所趋。理由一,机器变得能干的趋势将持续下去,它们会逐步缩小自己在人类具备优势的那些项目上的差距;理由二,专业人士无法依赖新需求或者潜在需求为他们创造就业,因为机器往往能够更好、更高效地去执行这些新任务;理由三,尽管根据我们的设想,有些任务需要进行道德判断、承担道德责任,而这些任务都必须由人类来完成,但我们并不认为这些任务的数量能够大到维持目前的专业人士就业规模。最能干、最聪明的专业人士才能坚持到最后——他们能够执行那些不能也不应该由机器执行的任务,以及那些我们主动选择留在人类手中的任务。但所有这些加在一起,都不足以把赚钱轻松的专业人士维持在目前的人数水平上。
我们预测,专业工作在未来几年里将逐渐消失,但所有这些转型都是逐步发生的,并不是一蹴而就的。
与此同时,还有另一件事值得一提。当我们评价一部机器在执行某种任务时具备优势,我们并不仅仅在表扬它具有更高的生产力,它能够利用更少的投入实现更多产出。我们同时也在评价使用机器或人类的相对成本——使用成本有多昂贵。比方说,即便一台医疗诊断设备比人类的生产力高出十倍,如果相应的使用成本要高出一百倍,那医生就不该使用它。用经济学语言来看问题,我们必须同时考虑量(生产力水平)和价(成本)。今天,许多技术的生产力都特别高,但它们也都十分昂贵,也就是说,启用它们的时机还没到来。
为什么说我们可能错了?
关于长期的技术性失业问题,我们的结论对多数专业人士来说都是难以下咽的。当然,也有可能我们是错的。肯定有许多批评家会瞄准我们开炮。下面,让我们来总结一下,对其中最常见的批判做出回应。
实用主义者通常会挑战我们认为专业工作都可以简单进行任务分解的观点。麻省理工学院的经济学家大卫·奥特(David Autor)从学术角度为这种观点提供了支持,他认为“目前职业岗位中许多任务都捆绑在一起,无法轻易地解除绑定……在解绑过程中,质量难以避免会出现实质性下降”。但是,这并不是专业工作先锋人士的体验,也并不符合“流程分析师”的工作体验。另外有些人认为未来最有效的方式应该是人类和机器共同协作。人类,作为机器的协作方,总是能够提供额外的价值。埃里克·布莱恩约弗森和安德鲁·麦卡菲在《第二次机器革命》里有一个核心观点,这也是卡斯帕罗夫这位前国际象棋冠军的想法,他们认为一个强大的人类棋手加上一台普通电脑可以击败一台强大的超级电脑。这种立场和IBM在Waston项目上的做法是一致的。他们谈过一种“人类和计算机之间新的伙伴关系”。2015年,我们认可这种观点的立场。但是,随着机器变得越来越强大,我们的确无法相信专业人士能够无限期在这种合伙关系里维系自己的地位。专业人士和机器之间的合伙关系和那些目前纯粹由人类处理的任务一样,都面临着完全被机器取代的风险。随着时间不断推进,未来这些日益能干的高性能、不思考的机器越来越不需要人类的协助。
我们早先提过的另一个观点,也就是专业领域未来一定会出现新的人类工作机会,尽管我们目前并不知道那些工作的真面目。这个观点还说了,新技术通常会取代工人,但是为了满足需求的增长,新的工作岗位也会涌现出来。比方说1900年,美国劳动人口的41%从事农业领域的工作。如今这一数据跌到了2%以下。在1900年,应该没有人能够预测到“100年后,医疗健康、金融、信息技术、消费电子、酒店业、休闲娱乐业的工作岗位都比农业要多得多”。同样的,20年前,没人预料得到如今成千上万的人的职业是“搜索引擎优化师”(帮助网站供应商保证它们能够出现在谷歌搜索结果的前列)。
这一章想提醒专业人士不能过于依赖而应该小心审视这种思路。在未来,新需求的确会不断涌现,而且都会相应催生新的服务,有些还可能会开辟全新的行业,但我们必须搞清楚为什么这些新服务、新行业可能为专业人士带来新的工作岗位。过去的因果关系实质上并不是因为出现了新的服务需求,而是因为人类比机器具备更多的优势来提供所需要的服务。未来也会是同样的情况——人们会对新服务产生需求,但我们不能默认专业人士一定会打败机器,成为这些新任务的最佳执行方案。
尽管我们说了那么多,仍然还是会有一些任务为专业人士保留下来。这是预测专业人士将面临技术性失业的人听到的普遍回应。通常还能得到另一种观点的支持,专业人士的工作包含着对计算机化免疫的任务,因为它们是无法常规化的,所以总是需要人类来执行操作。但这又是一种无根据的假设,认为非常规任务永远不能由机器来执行。我们在这本书里向这种观点提出挑战,认为这通常来自于AI谬误——在这一观点中,它假设复制人类专家的思考过程是唯一可行的系统开发思路,因为我们基本不可能复制出人类大脑,因此这些任务将永远被人类所保留。
但是正如我们反复强调过的,机器能够执行非常高难度的任务,而且通常它们的表现胜过人类。我们认为,日益强大的机器将逐步承担起越来越多的非常规任务,因此认为总是会有任务留给人类,且只能由人类来执行的直觉是毫无根据的。
对于技术性失业,我们最后还想说一句,尽管我们的分析是重点针对专业工作的,但这里的结论可以应用到大多数(如果不是所有类型)的工作上。事实上,我们认为专业工作能够保持目前形态的时间长度和大多数其他职业是一样的。因此这个根本性的问题是普遍适用于整个社会的。趁着还不算太晚,我们需要重新审视全职工作的概念、工作的目的、工作和休闲之间如何寻求平衡。
7.5 可行性问题
也许本书面临的最尖锐的质疑来自于实用性, 我们把这种挑战叫作可行性问题。
它的理论是这样描述的:解放实践经验是一种值得思考的理想,但是我们所说的想法在现实中无法实现。我们的确希望一流的实践经验能够为尽可能多的人服务——最新的医疗发现、最清晰的法律意见、完美的教育体验、最深刻的新闻报道,但同时我们必须脚踏实地。这种观点包含两层意思。首先,我们需要为创造实践经验的人类提供足够的激励;其次,我们必须保证他们拥有合适的财务能力。如果做不到这两点,实践经验的创造就会枯竭,人们也无法从互联网上受益。
激励观点十分切中要害。比方说,如果律师知道自己并不会因为提供法律意见而得到报酬,那他是否还会有足够的动力去学习如何起草精彩的法律意见文书?如果软件开发商明知道病人使用它的系统不必付费,他是否还会有动力去搭建一个在线病症评估系统或者健康诊断系统?假设,即便没有任何财务回报,律师和开发商仍然愿意付出劳动——那么他们必定受到来自非财务方面的激励。在这种情况下,这些人要怎么来维持自己的生计呢?如果他们的努力在今天和未来都将无法带来财务回报,谁来支付他们的薪水,资助他们接受培训、进行研究呢?
从这个角度来说,解放实践经验是存在障碍的——无论是专业机构、专业人士,还是那些将要取代它们的系统。它使所有人都缺乏创造实践经验的动力,再进一步,即便他们希望持续为此努力,他们也不具备相应的财务能力。可行性这一问题让我们开始思考,相比于解放实践经验,我们是不是更应该反过来对实践经验提供保护呢?我们必须为那些愿意付出时间和金钱去创造实践经验的人所创造的成果提供某种程度的排他性,对能够取用实践经验的人加以控制,保留为这些创造和传播工作收费的可能性或者从其他渠道获取收入。
当然,这正是当年大交易所达到的效果。专业机构拥有相关实践经验的排他权,因此得以享受由此而来的胜利果实。这些收益有可能是经营利润,也可能是其他形式的赞助和资助。这种机制保证了人们和机构的付出有所回报,未来回报的确定性让它们拥有良性激励来进行持续投资(培训与调研等),也保证了相关领域的实践经验能够得到及时更新、与时俱进。没有大交易机制,有人可能会认为,整座实践经验的大厦会轰然坍塌。
可行性问题迫使我们做出权衡。一方面,我们殷切希望实现实践经验的广泛传播。另一方面,我们也希望为未来创造实践经验的人们提供足够的激励,保证他们的财务状况。如果立刻解放现存的实践经验,我们可能会损害未来实践经验的创造活动。
“公共资源”的其他问题
还有其他潜在问题。我们的理论认为还有一些实践经验应当变成“公共资源”。很容易理解,这就意味着实践经验的所有权和控制权不再属于少数几个大机构了(比如说,专业机构、公司、政府),而变成了由所有参与者共享。公共资源这种方式可能会引发公众提出三个关于可行性的担忧。
第一种是最基本的——究竟为什么会有个人和机构心甘情愿放弃他们对于价值连城的实践经验的所有权和控制权,情愿把它们变成公共资源分享给大家呢,按照之前提到过的理由,难道他们不希望保留排他性权利吗,这样不就等于放弃了自己盈利的机会吗?
第二种疑虑是担心一旦变成公共资源,实践经验可能被滥用。生态学者格伦特·哈丁(Garrett Hardin),把这种现象称为“公地悲剧”。1968年哈丁在《科学》(Science)杂志上发表了一篇被广泛引用的文章,他让读者想象一群牧羊人,他们共用一片牧场,由每个牧羊人来决定要放牧多少头羊。如果牧羊人只考虑自利原则,后果将是一个悲剧——每个牧羊人都希望享受到多放牧一头羊带来的所有好处(羊会变得更肥、更健康),但只承担这种做法的部分损失(更加贫瘠、不再茂盛的牧场,所有损失将由所有牧羊人共同承担,而不是其中任何一个)。因为并不考虑行为的后果,每个牧羊人都会在牧场上放牧尽可能多的羊,牧场很快就会无法使用,哈丁因此认为“集体决策的终点是毁灭”。同样的,我们也能预料到一旦实践经验成了公共资源,大量只顾着自己利益的用户就会过度使用。
第三种情况是担心实践经验成为公共资源后,其相关的创造活动就会变得不足。当一个机构拥有、控制实践经验时,其维护成本和更新迭代责任也就清楚地落在了他们身上。这是大交易的辩护理由之一,但是当公共资源的所有权和控制权都更加分散,应当由谁来承担这些成本?直觉上可以认为这些费用应当由所有拥有者共同承担。但这本身就提出了一个问题:当人们发现不参与承担费用也并不会使得他们被剥夺公共资源权利时,难道他们不会选择“搭便车”或者“背驮式运输”(Piggy-back)的方式来利用别人的贡献?毕竟不付钱,也不影响他们使用实践经验并从中受益。但是,越多的人拒绝参与承担费用,实践经验的产出也就越少。人们越是依赖于别人的贡献和付出,整个社区的贡献就变得越少,能够合理涵盖相关成本的概率也就越低。
针对可行性问题做出回应
我们认为前面几个段落的确找到了主要的挑战,如何使得实践经验的分享变得实在可行。如果我们聚焦到其中的核心问题,就会发现离开了大交易体系所提供的排他权利之后,由于缺乏激励人们创造分享专业知识的获利回报机制,也就无法为他们提供足够的财务支持。
对可行性挑战的常见回应之一——只关注创造分享“信息商品”的边际成本。杰雷米·里夫金(Jeremy Rifkin)在他写的《零边际成本社会》(The Zero Marginal Cost Society)一书里探讨过这个观点。在我们的语境中,信息商品就是指“实践经验”。创造分享实践经验的边际成本的确相当低——让一位新用户看到在线课程、复制一篇文章通过电子邮件发送给朋友、为用户进行一次在线诊断检查身体状况、使用在线法律文本汇编软件,等等,这些活动的成本都几乎为零。这是由实践经验的经济特性所造成的。
在我们的语境中,我们无法不加辨别就接受这种观点,只关注边际成本是不完整且具有误导性的——因为边际成本并不是实践经验创造传播过程中的唯一成本。我们还应当关注在产生边际成本之前必须花费的初始固定成本。这些固定成本可能非常之高。首先,必须有人去指导创作在线教育的视频、起草被分享的文章或者开发编写在线诊断系统和法律文本汇编软件。也许有一天,机器也能执行其中的某些任务(几十年来,人们一直在利用软件编写新的软件,只是目前仍然在初级阶段)。但是即便到了那一天,总得有人去支付第一台机器的相关开发制造费用。当然,一旦这些任务都被完成了,一旦视频制作完成、文章书写完毕、程序编写成型,那么最终的服务产品就能够以极低的费用进行再生产和传播,但是在我们可以享受到这些低廉的边际成本以前,必须有人来承担初始固定成本。如果我们把这些初始成本考虑在内,有可能真的有必要为投资人保留一部分产品的排他性权利。他们应当能够就所提供的服务收费,或者以其他形式创造收入来回收他们所投入的成本,随后得以持续性地创造和传播实践经验。
对于可行性问题,另一种常见的答复是并不是每个人都追求财务回报。解放专业知识造成利润下降并不要紧,这种观点认为,因为人们并不总是以财务获利为行事动机。他们常常有着其他的、非财务性质的动机——比方说他们单纯地希望提供更好的法律指导和治疗建议,这本身就是有意义的好事。尤查·本科勒(Yochai Benkler)在他写的《企鹅与怪兽》(The Penguin and the Leviathan)中进行了详细讨论。他对此极为乐观:
公共资源终于可以发挥它们的功用了。在如今的知识经济时代,最为有价值的资源——信息和知识——本身就是公共商品,开发这类商品的最佳(也是最大化商品价值)的方式就是上百万人通过网络,把他们的相关知识集合到一起,共同创造新的产品、想法和解决方案。一旦人们意识到了这种可能性,网络不仅能够作为自己创造个人内容的平台,还能够创造这样一个平台,大家都会不计报酬地贡献自己的才能、知识和资源再集中发挥作用,最终所能创造的成果将十分惊人。
这种情况可以部分解决“搭便车”问题。如果人们能够表现得像本科勒所描述得那样无私,那么他们就不太会只想着占彼此的便宜。维基百科就是一个很好的例子,它吸引了大量捐助,用户也做出了许多贡献,但维基百科并没有为了排他性权益而采用收费使用的商业模式。
把本科勒的观点应用到实践经验领域,最有力的证据包括人们选择公开自己接受专业人士帮助所获得的经验,或者把自己解决问题过程中所得到的知识分享到网络上。问题在于,如果我们想一想专业人士——就像当初要求百科全书的出版商为维基百科提供内容的情景,专业人士如果被要求外化交付他们的实践经验,他们怎么积极得起来?
我们同样要指出,许多专业人士也不完全把利润作为自己的追求。他们并不总是依靠销售实践经验来回收自己的成本,比方说许多人的目标是如何在固定的费用水平下,更为有效地提供服务,而且费用的收取对象并不是用户而是其他付费方——比方说,从政府或者慈善机构收取。比方说英国国民健康保险制度(NHS)或者国家教育系统,服务接受方可以享受免费的服务,每次服务并不会带来直接收入。这些服务的关注点是,至少应当是,如何最大限度利用边际成本下降的特性来扩大实践经验的影响力。
那些纯粹由财务动机驱动的专业人士又怎么样呢?一种可能性是大量的“潜在需求”可能会激励大型事务所,以极低的价格把他们所拥有的实践经验提供给极大的客户群。这将是一种低价服务而不是免费服务。收入将来自于大量印刷工业时代无力负担传统服务的个人和机构。但是,即便这种潜在需求真的存在,公共资源的根本挑战仍未得到解决——这些事务所为什么要放弃实践经验的所有权和控制权?他们可能愿意以很低的价格来外化交付他们的知识,但是并不会把他们的专业知识变成免费的公共资源。
最后还有一种理由可能会让谋求利润的专业人士决定放弃实践经验的各种权利,让它们变成公共资源。回想一下我们所提到的专业服务的演化模型。我们建议专业工作从手工艺模式进化到标准化、系统化形式,并且以某种形式完成外化交付,图表5.1由左至右阐述了价值下降的趋势——服务的成本下降、竞争变得更为激烈。在演化过程中的某个阶段,也许追求利润的专业人士会意识到某些实践经验无法继续创造利润,但在他们所服务的社区里仍然具有巨大的使用价值。在这种情况下,他们可能会选择公开这些经验,把它们变成无偿的或者公益性质的公共资源。
那么公共资源的悲剧又如何解决呢?如果仔细分析,可以发现哈丁对于“公地悲剧”的经典理论并不能直接运用到实践经验的情形中。他关注的是实体商品,他的故事是关于一片由于过度放牧而枯竭的牧场,他所关注的商品是具有消费竞争性的——越多牧羊人使用过后,留给剩下的牧羊人的土地就越发贫瘠。但我们的分析已经确认,实践经验和实体商品是完全不同的。实践经验不仅具备非竞争性——它并不会因为被使用而损耗——它反而具有累积效应,经过反复使用价值反而会越来越高。哈丁害怕公共资源会导致过度使用,因而造成“悲剧”,但就实践经验而言,过度使用的情况是无须顾虑的。知识不会因为使用而贬值,反而在不断使用中累积增值。知识成为公共资源并不会变成一出“公地悲剧”,反而可能成为卡罗尔·罗斯(Carol Rose)所描述的“公地喜剧”。公共资源形式让我们能够更好地利用实践经验那些特殊的经济特性。
回顾排他性
我们可能对未来过于乐观。潜在市场需求可能并不如我们所期望得那么大,实践经验成为公共资源这件事也有可能不如我们预计得那么顺利。但无论出现哪种情况,我们都承认需要某种程度的排他性——既需要为创造实践经验提供足够的激励,也需要让这些活动产生必要的经济收益。但是,这些需求并不一定必须通过大交易体系来实现,就像目前人类专家拥有许多经济活动的垄断权。相反,我们建议引入最低限度的排他性,为实践经验提供方创造足够的激励和回报即可。
换句话说,我们认为需要某种程度的排他性,但并不是大交易体系下默认自动的形式。在结论部分我们会说明,在条件允许的情况下解放实践经验仍然是更好的选择,我们鼓励采用书中提到的六种替代方式来创造传播实践经验。欢迎那些被排除在大交易体系外的替代性提供方介入。如果必须引入新形式的排他性,不能依赖过时的大交易体系,而必须保证实现一些前提,比如确保实践经验高度可信。我们认为实践经验的提供方应当基于其所创造的无人可取代的价值继续存在并繁荣发展下去,而不是借助法律法规把竞争者挡在门外。
无论如何,最小限度排他性是一种暂时的安排。它的存在并不是为了赋予人们实践经验的永久权利。可以想象的是,借助这种排他性让服务提供方有机会收回他们所投入的成本。否则,任何形式的排他性都可能生根发芽,最终催生出专业工作领域的新守门人角色。
最后,这种排他性只是针对专业机构以及潜在新提供方所执行的部分特定任务而言。本着分解任务的精神,我们在分析是否需要排他性权利时,不应该把现在的工作看成整体,而应当以各项分解任务为研究对象。
总的来说,我们认为把部分实践经验变成公共资源的确可以实现,而且并不需要赋予未来的提供方明确的、广泛的排他性权利。但是在这一结论背后,在上一章里我们也已经明确表达过许多次,我们支持对知识进行“解放”。
结论 我们应该期待怎样的未来
用长远的眼光来看,日益强大的机器必将改造专业人士的工作,为人类社会创造分享实践经验的新方法,这是本书的核心主题。我们没法给出时间表,因为变化的速度不受我们控制。但是我们相信这些变化将会逐步显现,而不是突然之间完成转型。根据这本书的观点,这种变化将以多种形式出现:专业工作的工业化和数字化;专业人士工作的日常化和商品化;专业人士去中介化、去神秘化。无论哪种说法,我们预计最终传统专业工作将被分拆,导致大多数(不是所有的)专业人士被不那么专业的人群以及高性能的系统所取代。我们预计会有新角色出现,但是不确定这些新角色能维持多久,因为机器早晚也可能取代他们。
在后专业社会,人们可以从网上获得实践经验。我们强烈建议取消目前和未来的守门人角色,让人们在可行的范围内获取尽可能多的集体智慧。当我们从各个角度谈论技术以及它对专业工作的影响时,我们也意识到自己的观点里似乎认为未来已经差不多成型而且无法避免——我们是强硬的宿命论者。比如说我们清楚地认为机器会变得越来越强大,各类装置会逐渐普及起来,人类将通过互联网产生更多连接;我们认为信息技术领域会产生指数级的增长。也许最终事情的发展并不如我们所料,但发生的可能性的确相当高。但是这并不意味着人类无法控制未来的发展方向,如何把技术运用到专业工作中去,很大程度上取决于我们人类自己。然而,能够塑造未来并不是故事的全部,我们相信,从道德角度出发,人类应当去塑造未来。
这本书写过两大道德问题。第一个道德问题是,在一些从道德层面让人无法接受的场合,究竟是否可以使用技术?我们是否应当在专业工作的技术进步过程中施加道德方面的限制?我们认为机器的确不适合决定一些事情,比如说不应该把何时关闭生命保障系统的决策权交给机器,无论这台机器的性能有多么高。我们也呼吁发起公开辩论,去探讨绕开专业人士或者专业人士助理们去创造传播实践经验可能带来的道德问题。
第二个道德问题是——技术互联网时代,实践经验的所有权和控制权应该归谁所有?尽管这个问题属于政治哲学范畴,但它同时也给实际操作带来了重重障碍。专业工作的未来很大程度上取决于我们的偏好。在印刷工业时代,专业机构通常拥有并控制了实践经验,这种状态受到大交易体系的保护。但是想象一下未来的情形,大量实践经验都被公布到网络上,专业机构,或任何人都似乎不再适合担任守门人的角色。在寻找关于未来的所有权和控制权的答案的过程中,我们探讨了一系列观点。其中一种极端观点认为我们应当彻底解放实践经验,我们也看到另一个极端,认为应当保持封闭。
那些极力呼吁解放的人认为实践经验应当成为公共财产,人人都可以从公共途径以低廉的价格甚至免费获得,控制使用权的守门人角色被取缔。他们的观点起源于目前专业机构的弊端,尤其是大多数人无法负担高昂成本、无法接近这些知识的现状。他们的观点同时还来自于知识的经济特性(非竞争性、非排他性、累积性、可数字化),也就代表着一旦采用日益强大的机器之后,实践经验的重复使用以及传播成本几乎可以忽略。他们的观点是,如果取消专业机构的中介角色,把实践经验广泛传播,我们就能够改善很多人的生活——提供更好的医疗、高质量的教育、实现更多正义等。与此同时,解放派担心从专业机构手里强硬夺取所有权可能不足以长期保证“解放”的胜利果实。他们认为我们应当警惕新的守门人再出现。实践经验的所有权、控制权相关的新的垄断形式可能还会出现,比方说收取高昂的充值费用。
那些主张封闭的人则持有完全不同的观点。他们坚持认为实践经验需要由服务提供方保护起来并且保留所有权,而不应当成为一种共享的资源。有些人借用知识产权的相关法律来建立并保持这种封闭状态。许多现任专业人士都持有这种立场。他们认为许多实践经验都是他们的财产、劳动成果和才华结晶,而且只有他们才知道如何去管理利用这些知识。其他一些人的观点则是基于可行性的问题。他们认为收费的在线服务形式可以作为传统专业工作的有效延续。他们也承认有些实践经验的确需要完成外化交付,但是可以想象,他们希望把这一工作也变成一种收入来源。同时,他们认为自己有能力独自承担管理那些在网络上公布的内容的职责。在此可以看出,这里的其他一些人的身份往往是在线内容和服务提供方。从传统专业服务形式往在线实践经验创造传播模式转型让这些人看到了巨大的商机。一些政府机构支持这些服务供应方,一起提倡采用封闭模式。这些公共机构持有这种观点的通常并非出于收入动机,而是它们强烈认同实践经验的重要价值,认为外行人没有能力管理。政府的职责之一,在这种情况下,就是监督控制市场上的专业知识的质量。
那我们究竟应该期待什么样的未来?在解放派和封闭派之间是否存在任何无法调和的不同意见?在这类相左的道德和政治立场之间做出选择,其主要困难之一在于如何防止个人偏好产生过大的影响力。此时,许多人可能都想表达自己的观点——最明显的是专业人士——他们无法保持中立客观。大部分专业人士对新事物持有反对意见是自然的,也是可以理解的,因为他们自身的状况难免受影响,财富也可能会缩水。
为了帮助我们解决这个困境,我们从政治哲学家约翰·罗尔斯(John Rawls)写得十分具有影响力的《正义论》(A Theory of Justice)一书里借来一种技术。为了阐述他关于如何构建一个公正的社会的观点,罗尔斯让读者想象一种虚拟的情景,没有人知道自己自身所处的社会环境以及个人情况,人们对自己的天赋和能力也一无所知——比方说他们是不是聪明、好看或强壮,他们对自己的社会地位或所处的阶层也毫不知情。事实上,他们不了解任何关于自己的特定情况——他们不知道自己的年龄、性别、种族、甚至辈分。当我们假想自己身处这种虚拟的无知状态,我们就进入了罗尔斯所说的揭开“无知之幕”之后的世界。只有当我们揭开了这层幕布,我们才可能做到完全公平公正。
我们邀请各位读者,尤其是专业人士,走到“无知之幕”后面去思考进入技术互联网时代之后,我们应该如何分享实践经验。我们并没有要求大家去思考专业工作的未来。一旦那样的话,想象力就立刻受限制了——把问题设计成“专业工作应当如何演化”就意味着他们必定扮演着某种核心角色。相反,在这本书里,我们认为尽管不会思考但日益强大的机器能够取代大部分的人类专家。我们的问题是,揭开“无知之幕”之后,我们是否应当把这些系统和机器的控制权放开交给许多人,还是应当把控制权保留在少数人手里,我们究竟希望看到实践经验以低廉还是高昂的价格进行传播,应该解放还是封闭实践经验?
当然,这是个比较长期的问题,我们也可以换种方式来提问。在专业工作未来的发展过程中,可能会出现两条分岔路。一条路引导实践经验成为一种在线共享资源,免费提供给社会,并且由大家集体来维护;另一条路上,知识和经验可能也会变成在线资源,但是提供方保留所有权和控制权,服务接受方通常需要为获取资源付费,这些实践经验是封闭的、可交易的,很可能掌握在新的守门人手里。沿着第一条路,知识和经验会变成公共资源,在可实现的范围内,不以商业收益为目的来管理分享集体的知识和经验,第二条路就不可避免地把实践经验变成了在网络市场上交易的商品。站在“无知之幕”背后的读者们会做出怎样的选择呢?
当然,我们把情况过度简化了,选项可能并不是这么黑白分明的。任何混合组合都是可能出现的。但是在两者之间做出选择是为了表明原则,因为这两个选项的确十分不同,当我们规划如何构建技术互联网时代的时候,应当已经在原则层面做出了清晰的选择。
我们的感觉是,从“无知之幕”后面看世界,大部分人会倾向于选择解放之路而非封闭之路。总的来说,生活在一个能够以低廉的价格甚至免费享用到大多数医疗救助、精神辅导、法律建议、新闻报道、商业协助、税务帮助、建筑知识的社会似乎更美好。这也正是我们所坚信的——接下去的十年、二十年里,我们将有机会对世界进行改造。
我们为想象中的全世界人类的未来而感到万分激动——无论贫富——都能够享用到取用不尽的生存宝藏,各种帮助、指导、学习对象以及深刻见解都能够帮助他们活得更健康、更幸福。但是这种转变并不会自然发生。它是一个必须依靠大家共同奋斗才能达到的目标。我们必须记住,“不作为”和“作为”一样,都是一种选择。如果我们选择什么都不做,我们决定继续沿用传统的体系,因为恐惧而放弃技术可能带来的变革,也就是冒险打破现状,那么我们的后代可以就这一决定向我们追究责任。用安东尼·肯尼(Anthony Kenny)的话来说,技术“把因作为和因不作为而犯罪的能力同时并不可回避地交到了我们手里”。本书中所探讨的不作为罪行的影响非常深远,不容忽视。我们如今坐拥迅速传播、高效分享专业知识的各种手段,也同样应当拥有相应的意愿和决心。
[1] 约为65032平方米。
[2] 即每个人都与其他三个人中至少某一个,有一个或多个共同属性。
[3] 整本书中,我们都使用外行这个词汇。我们知道这个词其实并不十分理想,但这是我们在一堆单词里所挑出来的最合适的了。例如,我们更不喜欢普通人,或者非专业人士这样的用词。
[4] 英文原文用的是双关语——The Information Technologists and Management Consultants are in good company.
[5] Barber-Surgeon是中世纪欧洲最常见的医药工作者,通常负责照顾战场上受伤的战士。早期的外科手术并不是由医生主持,而是由理发师来操刀的。理发师们因为工作缘故,拥有锋利的刮胡刀作为工具。中世纪欧洲理发师的工作包括从理发到截肢,但由于失血过多以及伤口感染,那时手术的死亡率非常高。因此,合并后的新公司享受一些有趣的特权,比如说每年可以被分配到四具被处决的死刑犯的尸体进行解剖。
[6] data exhaust,大数据概念,指用户在线交互的副产品,包括浏览了哪些页面、停留了多久、鼠标光标停留的位置、输入了什么信息等。许多公司因此对系统进行了设计,使自己能够得到数据尾气并循环利用,以改善现有的服务或开发新服务。
[7] 牛顿说过,“如果说我看得比别人更远些,那是因为我站在巨人的肩膀上”。尽管据说当时牛顿说出这样的话是出于讽刺罗伯特·胡克,而非因为谦逊。