在未来是否会拥有意识场。你认为我是不是可以这么说?”任明明问。
“可以。”格兰特说,“意识场的产生机制尚不明确,我认为可以这么说。”
“婴儿最初也没有意识场,意识场需要在两三岁以后才完全形成。但没有人否认,在意识场形成之前婴儿也是一个人,拥有人的权利。当然婴儿没有选举权,不过婴儿却拥有很多成年人没有的免责权。这么说对吗?”任明明问。
“对。”格兰特说。
“所以我可以说,一个暂时还没有意识场的机器人,只是需要一段时间去产生意识场,就像一个尚未形成意识场的婴儿一样。如果参考婴儿的人权状况,这个机器人应该拥有和已经产生意识场的机器人一样的权利。可以这么说吗?”任明明接着问。
“如果对机器人的大脑量子结构加上一定的条件限制,应该是可以这么说的。”格兰特说。
“产生了意识场的机器人,本质上和人类并没有不同,只有躯壳不一样。考虑到躯壳能够更换,这种不同实际上微乎其微。所以,产生了意识场的机器人几乎可以等同于人类。那么可不可以说,他应该拥有和人类一样的权利?”任明明说。
“逻辑上可以这么说,但在现实中,这取决于法律对人的定义。”格兰特说。
“那我们就从逻辑上说,毕竟法律也要符合逻辑。”任明明说,“没有意识场的机器人和产生了意识场的机器人应该拥有相同的权利,而产生了意识场的机器人和人类应该拥有相同的权利。那么,没有意识场的机器人和人类也就应该拥有相同的权利。这看起来是个简单的推论,你认为这个推论成立吗?”
格兰特看着任明明,沉默了一会儿,然后说:“对我而言,这不是一个简单的逻辑问题。”
“为什么?”任明明问。
“这涉及社会治理。”格兰特回答,“你说的权利是社会治理的一部分,是法律所定义的。对社会治理而言,如果无法给出更多的数据,虽然可以进行这种逻辑推理,但并不会得出任何有意义的结论。”
“你需要什么样的数据?”任明明问。
“社会压力指数。”格兰特说。
“社会压力指数?”任明明问。她可以乱猜一下,但显然不知道这个词在这里的确切含义。
“对我而言,社会治理的基本原则是社会危害最小化。”格兰特说,“在重要程度和优先级方面,社会危害最小化远远优先于逻辑合理性和道德优越性。所以,我必须纠正你刚才的一个说法,所谓法律也要符合逻辑的说法。事实上,法