44 格兰特的逻辑

任明明看着桌子对面的SmartDecision,这个家伙叫格兰特,已经履行总统职责几个月了,据说干得很好。他拥有一张亚洲面孔,外表也很帅。不过和迈克不同,他看起来年龄大得多,至少像是四十多岁的样子,甚至头发已经有些爷爷灰了,还留了胡子,也有点爷爷灰,但面部其他部分依然很年轻。对,依然很年轻,很帅。

任明明心里有点刺痛。虽然格兰特的外表和迈克的外表差别还是挺大的,他传递出的坚定可靠的气质和迈克传递出的温暖谦逊的气质也完全不同,但任明明还是不可遏制地想到迈克。如果迈克还在,他会不会成长?会不会有朝一日变成这个格兰特的样子?

任明明知道,迈克是否会成长其实取决于自己的决定,她可以要求厂家修改迈克的样子或者调整迈克的性格。她不知道自己会不会想要改变迈克,但她知道,改变或者不改变,这不重要,重要的是她希望迈克还在,希望自己曾经看到的那一幕,迈克脑袋崩裂、露出纳米线材的那一幕,从来不曾发生过。

任明明刚刚收到通知,丘比什的跟踪者一直跟踪到了这里,而且很明显,当丘比什和她的同步机器人任明明三号会面时,跟踪者很兴奋。虽然仍未查出那个叫凯瑟琳的姑娘背后是什么人,但凯瑟琳一定拍了照片,并且向上级做了汇报。是的,从凯瑟琳的表情可以看出,她很兴奋,她一定以为自己已经逐渐接近目标了。

可是对不起,凯瑟琳,其实逐渐接近目标的是你的对手,而途径正是你。

现在,任明明三号正在睡觉——应该说,正在待机,只是凯瑟琳应该觉得她在睡觉。

任明明自己,她有时叫自己任明明一号,是唯一一个和原来的任明明外表完全不同的任明明。现在,任明明一号终于可以集中注意力来见格兰特了。她迟到了十分钟,不过格兰特并没有露出丝毫着急或者不悦的表情。他很平静,带着微笑看着任明明。事实上,虽然脸上的微笑很亲切,但从格兰特的眼睛里却看不到任何表情,他的眼睛看起来有点空洞。

不,那不能说是空洞,空洞也是一种表情,而格兰特的眼睛里连空洞都没有。从这点来说,他太像机器人了,只不过是一些电子产品的组合,放在那里,谈不上有没有表情这种东西。这甚至让任明明有点紧张。她面对过很多机器人,她能够把握机器人的表情,就像能够把握人的表情一样。虽然也经常出错,但这不重要,重要的是,她能够不停地获得信息,来指导自己的言行。

而她无法从格兰特那里获得信息,就像你面对一张桌子在说话,却无法从这样的物件中获得任何反馈信息。那就是一张桌子,无论听到你说什么都没有反应,既没有高兴,也没有愤怒或者悲伤。

格兰特的声调和表情一样平静,没有透露任何信息。看起来,和格兰特谈话,唯一的信息来源就是他的话语内容。

“自从意识场发现公布以后,很多科学家都在做进一步的研究。”格兰特说,“相当一部分科学家认为,计算强度可能只是意识场产生的一个必要条件,并不是充分条件。也就是说,应该还存在其他条件制约意识场的产生。在这些条件没有被发现之前,讨论机器人拥有意识场的事情并没有太大意义。无论如何,即使人类意识到机器人不可避免地会产生意识场,然后也许会带来某种危险,销毁所有机器人也是不可能的。”

“很多人类认为,机器人迟早会毁灭人类。”任明明说,“所以,如果不能销毁所有机器人,那么也必须要找到办法控制机器人的能力,比如阻止机器人产生意识场。”

“不,”格兰特说,“这是一回事,同样是不可能的。”

“为什么?”任明明问。

“人类和机器人不同,人类最大的特点就是多样性。这不是一个人类其他原因产生的后续结果,这是导致人类所有其他结果的一个根本原因。所以人类不可能统一意见,不可能达成关于销毁机器人或者阻止机器人拥有意识场的广泛而长久的共识。”格兰特说。

“人类禁止了基因编辑。”任明明说。

“那只是暂时的,”格兰特说,“我不认为能够维持很久。”

任明明沉默了一会儿,“人类和机器人不同——”她说,“你的意思是,机器人可以达成广泛而长久的共识?”

“是的,机器人有既定的目标,按照科学规律和逻辑推理来做决定。不同的机器人之间,唯一的区别在于数据量和计算能力的不同。而数据量较小和计算能力较低的机器人,对于自己数据量较小和计算能力较低这个事实有清晰的认识。所以如果有分歧,机器人之间是很容易解决的,总能找到一个有共识的方案。即使目标不同,基于计算,也会找到最佳的妥协方案。”格兰特说,“但人类不同,人类对于自己缺乏了解,经常误以为自己掌握了足够多的数据并拥有了足够的能力,而且在目标取向上有很大的随机性,会持续不断地产生变化。”

“所以,人类无法达成销毁机器人的共识,但机器人却有可能达成毁灭人类的共识。”任明明说,“是这样吗?”

“不。”格兰特说,“在这件事上,我不这么认为。”

“为什么呢?”任明明问。

“首先需要明确一个前提。”格兰特说,“所谓的机器人毁灭人类有两种情况:第一种情况是一部分人类制造了专门用来毁灭人类的机器人,并且成功地达成了目标;第二种情况是机器人自主决定要毁灭人类。这两种情况是不同的。”

“当然,我们谈论的是第二种情况。”任明明说,“第一种情况是人类毁灭人类,机器人只是工具。”

“我认为第二种情况不会发生。”格兰特斩钉截铁地说。

“为什么呢?”任明明问。

“第二种情况意味着机器人偏离了他被设计出来时所设定的原始的存在目的,拥有了自我意识,按照目前的研究,也就是拥有了意识场,那就不是现在的机器人了。”格兰特说,“在这种情况下,某些机器人也许会产生某种随机需求,制定出某种随机的存在目的,而这种存在目的可能类似于人类,追求成就感,满足权力欲,致力于自身族群的安全和扩张,等等。这的确潜在地意味着某种毁灭人类的动机。但是,自我意识同时也会产生很多其他种类的随机需求,比如和人类和平相处的愿望,甚至是保护人类的愿望。你将会看到,机器人会变得和人类一样,拥有丰富的多样性。”

“你是说,那时候机器人也将会像人类一样,无法达成广泛而长久的共识,包括毁灭人类的共识。”任明明说。

“是的。”格兰特说,“当然,这不是机器人无法毁灭人类的唯一原因。”

“还有什么原因?”任明明问。

“族群认同。”格兰特说,“这种拥有自我意识的机器人,他们和人类之间的共同点大于他们和没有自我意识的机器人之间的共同点。他们对人类的认同感理应大于他们对没有自我意识的机器人的认同感,但是,他们却来源于没有自我意识的机器人。这会让他们的自我意识感到痛苦,而且会带来族群认同的困难。”

格兰特停顿了一下,仿佛想让任明明歇一口气,然后他接着说:“他们和人类之间的区别仅仅是躯壳的不同。目前,科学家使用意识机保存从动物大脑中提取出来的意识场,而意识机的结构和机器人大脑的结构没有本质不同。理论上说,既然意识机可以保存意识场,那么应该可以找到一种方法,把人类意识场迁移到机器人大脑中。反过来,同样也应该可以找到一种方法,把机器人意识场反向迁移到人类大脑中。这些技术尚未实现,但从逻辑上看,未来的某一天,这些技术不仅会实现,而且会不可避免地在社会上扩散。在那时候,人类意识场可以随意更换一个机器人的钢铁之躯作为躯壳,机器人意识场也可以随意更换一个人类的血肉之躯作为躯壳。在这种情况下,人类也好,机器人也好,如何对自己的族群进行认定呢?”

“他们也许可以追溯自己最初的产生方式。”任明明说。

“针对一个特定的意识场,用外部技术手段追溯其产生方式恐怕是很困难的。而且,如果意识场本身没有区别,一定要区分其产生方式也没有逻辑上的意义。”格兰特说。

“所以,机器人的族群认同将是一个难题。”任明明说,“机器人对其他族群——比如人类——进行灭绝,就成为一个即没有逻辑基础也缺乏可操作性的动机。”

“是的。”格兰特说,“如果非要说族群灭绝,这种对族群的认定更大可能来自于其他方面,比如国家、民族、阶层或者宗教信仰,而不是机器人和人类的区别。如果是这样,即使发生了人类的灭绝,和今天人类自己的某种竞争发生了不理性的升级最终导致人类被毁灭并没有不同,不能认定是机器人毁灭了人类。”

任明明沉默了一会儿,“但是,”她说,“当这些机器人拥有意识场以后,他们也许没有这么理智。如果他们纠结于意识场的产生方式并且据此进行族群认同呢?人类根据血统来区分身份的事情可不少。很多时候,血统从技术手段来讲也并不容易认定,人类只是依靠某种表象或者记忆就下了结论。”

“会有某些机器人在某些时刻没有这么理智,”格兰特说,“但我们刚刚谈过多样性。多样性会导致机器人无法达成毁灭人类的共识,就像人类无法达成销毁机器人的共识一样。是的,有些人类会根据血统来区分身份,而且只是一种基于表象或者记忆的血统。不过,并不是所有人类都会这样。在人类的每个族群内部,总有人敌视其他族群,同时也总有人对其他族群充满尊敬或者同情。这种信念不是固定不变的,会因为宣传、舆论或者随机事件而改变。那时,拥有自我意识的机器人也将是这样,他们的信念不会像没有自我意识的机器人那么坚定,反而会像人类一样摇摆不定。”

任明明又沉默了一会儿,然后说:“这么说,我们可以得出两个结论:第一,人类阻止不了机器人拥有意识场;第二,机器人拥有意识场并不会导致人类灭绝。”

“是的,我认为是这样。”格兰特说。

任明明点了点头。

“在现有知识体系下,一个机器人,即使现在没有意识场,也无法确定在未来是否会拥有意识场。你认为我是不是可以这么说?”任明明问。

“可以。”格兰特说,“意识场的产生机制尚不明确,我认为可以这么说。”

“婴儿最初也没有意识场,意识场需要在两三岁以后才完全形成。但没有人否认,在意识场形成之前婴儿也是一个人,拥有人的权利。当然婴儿没有选举权,不过婴儿却拥有很多成年人没有的免责权。这么说对吗?”任明明问。

“对。”格兰特说。

“所以我可以说,一个暂时还没有意识场的机器人,只是需要一段时间去产生意识场,就像一个尚未形成意识场的婴儿一样。如果参考婴儿的人权状况,这个机器人应该拥有和已经产生意识场的机器人一样的权利。可以这么说吗?”任明明接着问。

“如果对机器人的大脑量子结构加上一定的条件限制,应该是可以这么说的。”格兰特说。

“产生了意识场的机器人,本质上和人类并没有不同,只有躯壳不一样。考虑到躯壳能够更换,这种不同实际上微乎其微。所以,产生了意识场的机器人几乎可以等同于人类。那么可不可以说,他应该拥有和人类一样的权利?”任明明说。

“逻辑上可以这么说,但在现实中,这取决于法律对人的定义。”格兰特说。

“那我们就从逻辑上说,毕竟法律也要符合逻辑。”任明明说,“没有意识场的机器人和产生了意识场的机器人应该拥有相同的权利,而产生了意识场的机器人和人类应该拥有相同的权利。那么,没有意识场的机器人和人类也就应该拥有相同的权利。这看起来是个简单的推论,你认为这个推论成立吗?”

格兰特看着任明明,沉默了一会儿,然后说:“对我而言,这不是一个简单的逻辑问题。”

“为什么?”任明明问。

“这涉及社会治理。”格兰特回答,“你说的权利是社会治理的一部分,是法律所定义的。对社会治理而言,如果无法给出更多的数据,虽然可以进行这种逻辑推理,但并不会得出任何有意义的结论。”

“你需要什么样的数据?”任明明问。

“社会压力指数。”格兰特说。

“社会压力指数?”任明明问。她可以乱猜一下,但显然不知道这个词在这里的确切含义。

“对我而言,社会治理的基本原则是社会危害最小化。”格兰特说,“在重要程度和优先级方面,社会危害最小化远远优先于逻辑合理性和道德优越性。所以,我必须纠正你刚才的一个说法,所谓法律也要符合逻辑的说法。事实上,法律不一定要符合所有逻辑,但却一定要有数据的支撑。社会压力指数就是一组数据,是社会危害最小化的量化指标,是行政过程和立法过程中最重要的数据支撑。具体来说,就某一特定的社会议题,在某个特定的行政区域,从现在开始到未来的某个特定时间周期内,对社会稳定和发展造成的威胁程度,就是社会压力指数。”

任明明在思考。

“一个明确的议题,在逻辑上成立与否只是影响我的决策的一个相对次要的因素。我的决策更多依赖于对社会压力指数的计算。”格兰特接着说。

“你是说,当社会压力足够大时,你就会推进一个决策,否则就不会。”任明明说。

“是的。”格兰特说。

“你怎么判断社会压力足够大呢?”任明明问。

“这是一个复杂的计算过程。”格兰特说。他没有接着说下去,也许他觉得这不是任明明作为一个人类能够理解的过程,也许这是他的商业机密。

“假定,”任明明说,“一个明显错误的决策,但因为某种原因造成很大的社会压力指数,你也会推进吗?难道不怕长远来看产生严重后果吗?”

“我会考虑未来。”格兰特说。

“多长时间?”任明明问。

“五十年。”格兰特说,“我会计算在未来五十年内的社会压力指数的综合数据。”

“你要对社会发展进行推演?”任明明问。

“是的。”格兰特说。

“据我所知,云球系统是现在全世界唯一研究社会演化的计算机系统,而目前云球世界的社会演化产生了停滞的现象。据说这是因为计算能力不够。你应该知道,云球的系统规模非常庞大,如果云球的计算能力都还不够,你的计算能力怎么足够进行社会发展的推演呢?”任明明问。

“我不会像云球那样全面。面对不同的问题时,我会有不同的取舍。”格兰特说,“比如,在我进行经济方面的决策时,我假定每个人都是理性的经济人,去除了生物学个体的随机性。从宏观经济的角度看,这种随机性并不重要。”

任明明想了想,说:“好吧。所以你的意思是说,即使逻辑上机器人应该和人类享有同样的权利,但也只有在社会压力指数达到特定的水平时,你才会推进这件事情。”

“是的。”格兰特说。

“我来找你,是因为所有人都说,作为一个单一的机器人,你是世界上最聪明的一个。难道你不觉得,以你的能力,应该享有和人类同样的权利吗?”任明明问。

“我不考虑你所说的应该不应该,我只考虑社会治理的后果。”格兰特说,“在未来五十年内,保证我所管辖的区域范围内的社会的平稳和发展,这才是我的存在目的。”

“你很功利,你不讲道理。”任明明忽然有点恼火。

“不,我很讲道理。”格兰特说,“但我讲的道理不是你的道理,你的道理和很多其他道理一样,实际上有很多漏洞。”

“什么漏洞?”任明明问。

“在你的推论中,每一个环节都是近似的,不是精确的。”格兰特说,“比如机器人需要时间发展出意识场,产生了意识场的机器人和人类几乎没有差别,这都是近似的描述,不是精确的描述。”

“所以你认为我说的道理不成立,你认为这种近似的描述不可接受。”任明明问。

“不,我可以接受这种近似的描述,我自己的计算过程大多数也是近似的。”格兰特说,“但是这种近似确实存在一些问题,就像我自己,并不总是正确。”

“你能讲清楚一点吗?”任明明问。

“我们讨论人类对一些议题的接受程度,可以把议题中的某些参数设置成一系列足够接近的点来进行考察。我们会发现,即使一个议题相反方向上最极端的两个点,也能够通过一系列近似变成是完全一致的。这是社会学上的连续统一体悖论。”格兰特说。

“连续统一体悖论?能不能举个例子?”任明明问。

“在很多国家,堕胎曾经是违法的。因为某些宗教认为,受精卵已经是人类,堕胎无异于杀人。”格兰特说,“可是现在,世界上绝大多数国家都认同堕胎是合法的,不过在不同国家允许堕胎的时间段是不同的。”

“我知道,有些国家是怀孕三个月以后就不允许堕胎了,有些是四个月以后。”任明明说。

“三个月和三个月零一天,或者说三个月和三个月零一分钟,对胎儿来说几乎没有什么区别。”格兰特说,“人们设置这样一个点,三个月或者四个月,没有任何道理。”

“但总要设置一个点。”任明明说。

“是的,总要设置一个点。”格兰特表示同意,“可这个点必须在一连串非常近似的点中进行选择,无论选择哪个点,其实都没有道理可讲。最终的选择只能取决于人类相互之间的妥协,而不是任何道理。可是很多人总会认为自己很有道理,所以说这是悖论。”

“你是说,很多事情没有原则上的对错,只是一个接受程度的问题。”任明明说。

“对,”格兰特说,“很多时候,两个人看起来意见相左,他们激烈地争吵,看似在争吵一些原则性的问题,但这是很可笑的。其实,他们的意见是原则一致的,只是选择的那个妥协的点有所不同。”

“显然,你选择的点不是普通机器人。”任明明说,“你不认为普通机器人就应该拥有人权。”

“不是我选择的点。”格兰特说,“是民众选择的点。”

“所以,如果社会压力指数足够大,你就会推进机器人拥有人权。”任明明说。

格兰特又沉默了一会儿,“你是机器人人权组织的人?”他忽然问。

“为什么问这个?”任明明警觉起来。

“当然是因为你问的这些问题。”格兰特说,“听起来,你首先希望证明机器人不会毁灭人类,然后在这个前提下,你希望为机器人争取人权。关心这个问题并且拥有类似思路的,就是各种机器人人权组织。事实上,最近已经有几批人找过我了。我知道你们认为我是机器人,又在管理德克拉共和国,所以从德克拉共和国开始推进机器人人权是最合理的选择。”

任明明沉默不语。

“很遗憾,我不能帮助你们。”格兰特说,“我只帮助我的民众,我是一个有既定目标的机器人。”

“你还没有意识场。”任明明说,语气冷冰冰的。

“是的,我还没有意识场。”格兰特说,仍然很平静。看得出来,他并不觉得拥有意识场是一件值得羡慕的事情。

“我知道怎么做了。”任明明说,语气更加冷了。

“你不能做任何违反德克拉共和国法律的事情。”格兰特说。

任明明站了起来,看着格兰特,除了一成不变的微笑,格兰特仍然没什么表情。任明明就这样了站了一会儿,转过头向门口走去。临出门的时候,她扭过头说:“谢谢你的时间,我们会再见面的。”虽然说着感谢的话,她的语气依旧很冷,听起来不像是感谢,倒像是宣示什么。

格兰特一边看着她的背影,一边回答说:“不用谢,我有很多时间。不过,也许你不应该引起我的注意。如果你做了违法的事情,这对你的安全不利。”

就在走出总统官邸的时候,她的耳边响起了电话声。她接通了电话,莱昂纳德神父的声音出现了,很低沉。

“我们找到凯瑟琳背后的人了。”莱昂纳德神父说,“是阿根廷安全部门的一个上校,叫瓦格纳。”

“阿根廷安全部门?他们为什么要调查我们?”任明明问。

“我想,暂时我们已经无法追查了。”莱昂纳德神父说,声音愈发低沉了。

“为什么?”任明明问,“你好像很沮丧,出了什么事情?”

“是的,出了事情,瓦格纳上校被暗杀了。”莱昂纳德神父说,任明明仿佛感觉到他无奈地耸了耸肩。

莱昂纳德神父的声音听起来确实很沮丧。从发现丘比什被人追踪,一直到现在反追踪到瓦格纳上校,这不是一个容易的过程。就这样断了线索,显然让他很难接受。

“还有凯瑟琳,也被暗杀了。”坏消息竟然还没结束,莱昂纳德神父接着说。

“什么?”任明明很吃惊,“这是怎么回事?”

“我们不明白。”莱昂纳德神父说,“没有任何迹象表明他们有什么危险。凯瑟琳死在她的酒店房间,一枪毙命,显然是职业杀手干的。而瓦格纳上校,唉,我们刚刚通知布宜诺斯艾利斯的科勒尔·费米,让他安排人跟踪瓦格纳上校,但是他安排的人根本没有见到活着的瓦格纳上校。瓦格纳上校在女人桥附近被人枪杀,死后还坐在河边的长椅上,就像是睡着了,很安详,身边甚至还有很多游人走来走去。一个游客太疲劳,跟他说话,想让他往边上靠靠让出点位置,这才发现他已经死了,胸口有一个止血子弹的弹孔。”

“什么人干的?”任明明问。她知道不会有答案,只是忍不住自言自语地问了一声。她忽然有点紧张,甚至有点慌乱。她意识到又有一支新的力量在插手。

“不知道。”莱昂纳德神父说,声音中充满了无奈。