按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!
但是,你可能会说,只要停止人工智能研究,不就行了吗?这难道不是更符合逻辑吗?
这取决于你是宇宙主义的还是地球主义的研究者。个人来说,我是一个宇宙主义者。制造出拥有1040个组成部分或者更多部分的人工智能机器,我是指真正的超级机器,拥有神一样的智慧,探索宇宙和其广漠空间的秘密,永远不死,思考着我们难以想象的问题,对于我来说,有一种催眠般的吸引力。
它是我的终生梦想,对于我来说是一种宗教,并且非常强烈。我可以想象,在未来的某个时刻,有几百万人会和我拥有同样的梦想,我希望这件事情发生的原因是我真正地希望人类制造这样的事物,正如我在第4章关于宇宙主义的解释一样。
但是,我不是一个如此片面的宇宙主义者以至于我认为大众应该被蒙在鼓里。我有足够的地球主义的同情以至于我不想看到人类冒着在人工智能机器手中被灭绝的危险。因此,大众应有知情权,应该警示大众,以便他们可以选择自己的方式前进。
但是你可能会说,敲响警钟只能加速人类之间(宇宙主义者和地球主义者)的人工智能战争。这样的人类战争对人类的危害不比高级人工智能差。如果人类在本世纪使用先进的武器进行一场残酷的战争,结果将是大规模的死亡。
正确,但是不能肯定这一定会发生。我认为,人类在人类战争中存活下去的可能性比人工智能机器决定完全毁灭人类的机会大。由于智慧水平,人工智能机器们会发现这样的任务(毁灭人类)是如此的简单。
对于这些部分,你可能感觉有些犹疑,甚至是不舒服。我承认,我也感觉不舒服。我一部分是宇宙主义者,宇宙主义是我的梦想,它是我为之献身的事业;而另一部分我是地球主义者,我并不想人类大规模死亡,我告诉自己,如果所有的大脑制造者都停止工作,将不会有人工智能带来的任何问题。我想,我可能是地球上第一个这样的大脑制造者,那就是和制造原子弹(铀弹或氢弹)的核物理学家一样感受到了某种道德上的困惑。然而,他们中大多数是在核弹被投放之后感到了疑虑,而不是之前。
首先,我认为大脑制造研究不会停止。正如我在第6章解释的一样,这章主要介绍了人工智能战争是怎样开始的,我所看到的唯一能够让大脑制造停止的方法就是地球主义者的呐喊成为普遍现象并且在政治上非常有力。它必须足够强大,以便可以形成一个能够搜寻那些可疑的宇宙主义研究者的私人住宅的集权国家,并且更主要的是,能够胜过那些支持继续人工智能研究的经济和政治力量。
我认为,最折磨我的道德问题是:“如果推动人工智能研究最终带来几十亿人死亡将怎么办?如果你肯定这将是所需的代价你还会继续吗?”在我写本书的时候,我正在思考这个问题,而且我的思想可能会随着我的变老而改变,我的回答将会是这样的:“如果我能够肯定这点,虽然这些还是猜想,那么我将需要更深程度地反省自己,来看看我坚持宇宙主义者的梦想到底有多大的程度。一方面,我可能会认为宇宙对于人类的命运漠不关心—— 仅仅是处在一个微不足道的宇宙中一个微小的星系中的一个微小的恒星星系中的一颗微小的星球上的一种微小的生物,如果正如理论家们指出的一样有万亿个宇宙的话。我的无情的宇宙主义一面会这样思考问题,所以我会选择继续支持制造人工智能机器。
但是另一方面,我也是一个人,由于宇宙主义梦想而导致几十亿人死亡的结果是我完全排斥的。我认为,我将不得不学会习惯这样可怕的道德困境。人类也需要这样。我只是第一批意识到这点的人。想象一下我的工作的远期后果,它将迫使我这样想问题。
问题9 要消灭有意识的人工智能吗
问题9。 “如果一个人工智能机器变得有意识,消灭它吗?”
下述的观点更好地表达了地球主义者的态度。
来信
亲爱的德·加里斯教授:
如果人工智能机器在定义上来说“超越了人类的控制范围”,那么,为什么要认真地思考是否要制造它们呢?让我们更具体些,您所定义的人工智能机器“哪一部分应该永远不要制造出来呢”。我们非常善于制造我们可以控制的强大工具。制造对人类有危险的人工智能机器会有什么好处呢?为什么不停止制造这些人工智能机器而仅仅去制造那些无自我意识的人工智能呢?只有人类和其他的一些动物具有自我意识。把一台人工智能机器放在镜子前面,如果它可以识别其映像是自身的话,毁掉它!
回答
这种评论显然没有考虑“硅权利”。许多宇宙主义者会认为毁掉有意识的人工智能机器是一种谋杀行为。我从上述的评论可以看出这种评论没有宇宙主义的同情,因为他问到,“制造对人类有危险的人工智能机器会有什么好处呢?”
好,考虑一下这样的意见如何?——“去制造神一样的宗教般的吸引力”,或者“去制造出地球上或者更遥远的星球上的下一个主导物种”,或者“去创造出一个和科学更加兼容的宗教来达到‘宇宙意识’的目的”。或者这样,那就是“很多人渴望最终得到一个机会,来做一些‘大事’,来看到‘全景’”。
这样的评论低估了宇宙主义学说的力量,它非常强大有力,可能会影响几十亿人的思想,会成为影响本世纪全球政治的力量,并且在某个时刻会间接地导致几十亿人的死亡。请不要简单地反对它,它甚至可能成为人类和宇宙中其他几万亿个高级物种所必须面临的“宇宙主义者过渡”的问题,也许只有少数物种可以存活下来。宇宙主义可能比我们想象的要有影响得多。
问题10 没有更紧迫的问题吗
问题10。 “没有更紧迫的问题吗?”
下述的评论探讨了关于人工智能问题的所有疑惑。现在对于人类来说,肯定没有更紧迫的问题吗?
来信
亲爱的德·加里斯教授:
为什么要在意潜在的更高智慧“生物”的行为呢?我们这个物种中所谓的智慧成员在过去50年内花了很多时间,他们什么时候能够完善这么多自我毁灭的技术呢?现在大规模灭绝的物种是什么呢?人类在未来几十年里的生存和发展加速成千上万个已经生存了几百万年的独特物种的灭绝,这些需要某种程度的关心吗?对你来说,关心这些问题是否更好?
回答
有什么比人类这个物种的生存更重要的呢?高级人工智能机器决定要灭绝我们的可能也许非常遥远,但是,我们不能排除这样的可能性。由于这个赌注如此巨大,地球主义者的观点是,没有风险才是可以接受的,因此,人工智能机器的制造必须永远被禁止。
地球上有着几十亿人,有着几十亿种不同的兴趣。那些对人工智能辩论不感兴趣的人不必费心这些,有足够多的其他事情需要他们操心。一些像我这样的人对人工智能辩论感兴趣,所以,我们应给予足够的关注。由于我认为我是问题的一部分,所以我比大多数人给予了更多的关注。
当然,我并不否认其他问题的重要性。某些与人工智能问题不相关的问题,例如核子大毁灭的前景,也是很令人恐惧的。这种瞬间物种毁灭的事实也是一个大灾难。然而,尽管它们都很重要,我的观点是在本世纪中期,从全球的角度来看,你所提到的问题将处于比人工智能问题次要的位置。
问题11 悲剧可以避免吗
问题11。 “悲剧可以避免吗?”
下面的一些问题,来自我和我的一些朋友。本来我想单独写一章节,但是最后还是决定在这里讨论它。
来信
亲爱的德·加里斯教授:
您的工作是如此的悲观,它给予人们的印象是大规模死亡的战争将不可避免。难道没有更加正面的前景吗?
回答
是的,有正面的,我将在下面列举和讨论一些,因为这个问题是非常基本的。然而我个人的观点是,下面的每一个场景的可能性都不大。我花费很多时间希望能够找到避免我在本书描述的凄凉景象的替代前景,但是,我每次描述的新场景好像永远都不会成为现实。我请读者自己来做出判断。我希望下面所提供的替代场景容易理解。每一个场景都紧跟着我的评论,