财新传媒 财新传媒

阅读:0
听报道

2017年8月,麻省理工学院物理系终身教授迈克斯•泰格马克的新书《生命3.0》(Life3.0: Being Human in the Age of Artificial Intelligence)出版,一经上市便迅速登顶亚马逊人工智能类书籍排行榜第一位埃隆•马斯克、斯蒂芬•霍金、雷•库兹韦尔等多位学界和业界领袖给予极大的肯定和赞扬

更为难得的是,《科学》《自然》两大权威学术期刊同时刊文推荐本书尤瓦尔•赫拉利为本书撰写了书评,对这本书中的观点表示肯定和赞誉。这本书引发了硅谷、科学界和媒体广泛热烈讨论。

 

这本书对人类的未来做出了最大胆的想象,整本书都在构造对于未来生命、科技、文化和社会新的理解。这本书也对一个重要的问题进行了探索。这个问题从智人走出非洲开始,就一直伴随着人类的进化和发展,那就是:人类最终将迎向怎样的未来

 

作者依据技术与科学的严格推理,以及惊人的想象力,在《生命3.0》这本书里总结了超级智能可能带来的12种未来,分为4种结果。人机共生的未来,这是人类可能面对的最可信的结果。

 

第一种结果是人类灭绝。

 

最愚蠢的方式是人类自我毁灭。有科学家就曾经建议,把今天的核武器升级为“世界末日装置”,人类开启互相报复,共同赴死的模式,只要有一个国家进行核武器攻击,这个“世界末日装置”就马上启动,杀死所有人类。这个装置的目的就是要在最大程度上威慑想动用核武器的人。让他意识到,一旦发动攻击,他绝对不能自保。除此之外,人类对于生化武器和人工智能武器的研究,也可能带来人类自毁。谷歌的一部分高管联名抵制公司副总裁同意和美国军方合作,用人工智能研发武器,就是在抵制“人类自毁”的鲁莽举动。

 

 

人类毁灭还有可能是因为超级智能掌控了整个世界,成为了征服者。科幻小说《最后一个地球人》当中,外星人降临地球,成为地球的统治者,他们的目的就是要等待人类的后代变成星童,然后把孩子们带离地球。没有人知道,外星人为什么要这样做,连外星人自己都不知道为什么要这样做,但是最后的结果还是造成了地球上只剩下时日无多的老人,最后整个人类就灭绝了。

 

人类还可以选择比较缓慢温和的灭绝方式。就像成长起来的后辈取代老年人,而老年人安静离世。人工智能也把自己视为是人类的后裔,用这种方式自然而然取代人类。但是这种浪漫的想法,完全无法保证,在人类灭绝之后,超级智能会传承人类的天性和价值观,所以从某种意义上来说,超级智能不会真正成为人类的后代。人类还是会悲催地消失在宇宙中。

 

 

大多数人都会觉得,“人类灭绝”这个想法很恐怖,但是确实有一些人对人类感到愤怒,认为人类是愚蠢的,希望能出现一种更智慧更值得尊敬的生命形式来取代人类。电影《黑客帝国》当中的特工史密斯是一个超级智能,他在电影里说过一段话:“你们人类知道自己是什么吗?你们是病毒,你们是瘟疫,而我们人工智能就是解药。”

 

第二种结果是人类丧失了统治地位。

 

在这种情况下,人和机器的界限非常模糊。人类可以选择把自己的智能上传,也可以用科技不断升级自己的肉身。像是《黑客帝国》和《神经漫游者》这样的科幻作品,展示的就是这种自由主义乌托邦的场景。

 

超级智能可能会成为善意的独裁者。人类知道自己生活在超级智能的统治下,但是,因为超级智能愿意满足人类的各种高级发展需求,所以,大多数人会接受被统治。

 

 

超级智能还可能成为动物园管理员,只满足人类的基本生理需求、保障人类的安全。在它的统治下,地球和人类会更加健康、和谐、有趣,就像管理良好的动物园和动物一样。

 

但是,在丧失了统治权的情况下,人类虽然还存在,却活得了无生趣,不能主宰自己的命运。就像是被精心喂养的火鸡,永远不会知道,哪一天太阳升起的时候,就会是自己的末日。

 

第三种结果是人类限制超级智能的发展。

 

人类社会可能会发展成平等主义乌托邦,这个地球上一切财富和能源都是大家共有的。所有专利、版权、商标、设计都是免费的,书籍、电影、房屋、汽车、服装等等,也都是免费的。人类要限制人工智能的开发,把它控制在可以服务人类的水平上。

 

人类会给人工智能守门人的任务,把“阻止超级智能发展”这个目标设置在它的内核里。只要这个守门人监测到有人要制造超级智能,它就会干预和破坏,比如它可以用纳米技术抹去研究者大脑中的知识和记忆。但是,守门人人工智很有可能会削弱人类的潜力,让人类的技术进步永远陷入困境。

 

 

人类也可以选择让人工智能成为自己的守护神。它无所不知无所不能,它的一切干预,都是为了最大限度提高人类的幸福感。甚至,它为了让人类拥有虚幻的掌控感,会刻意把自己的能力隐藏起来。在这种情况下,虽然人类貌似有统治权,但是实际上不存在任何的自由意志。

 

第四种结果是人类统治超级智能。

 

人类控制着超级智能,用它来创造远远超出人类想象的技术和财富,它就像人类的奴隶;但是,它在能力上远远胜过人类,所以,就像是被奴役的神。在美剧《西部世界》里,人类折磨并且一次次杀死拥有人类外表的超级智能,这些被压抑的神总有觉醒的那一天。人类统治者只需要向错误的方向迈出一小步,就足以打破人类和超级智能之间的这种脆弱关系。

 

所以,人类很可能会主动停止发展超级智能。但是,只要有一些人或者国家偷偷发展技术,那么,他们就会积累起足够的财富和权力,接管和统治世界,导致世界走向极权主义。世界可能会成为乔治奥威尔的著名小说《1984》描述的场景。独裁者追权逐利,人性被彻底扼杀,自由被彻底剥夺,下层人民的生活极度贫困,人生变的单调乏味。

 

 

人类也许会选择主动把自己的技术水平退回到中世纪,比如说,抹去现有的一切农业知识,或者抹去所有的高科技。这个逆转发展方向的做法,虽然阻止了超级智能的快速发展,但是也很有可能把人类引向灭绝。如果人类停止发展,那么,将会在10亿年之后被大自然抹去,这是一种自然选择的必然结果。

 

怎么做才能保证人工智能的发展对人类的未来是有益的?作者在书中想要告诉我们的是,我们的每一种可能的未来,都取决于我们在当下做出的选择。读罢本书,你将会不仅严肃思考起来:你想要哪一种未来,又要做出什么样的选择?

 

 

话题:



0

推荐

李开复

李开复

336篇文章 341天前更新

我学网理事长。现任创新工场董事长兼首席执行官,曾任Google全球副总裁兼中国区总裁,微软公司全球副总裁、微软公司全球副总裁、微软中国研究院(现为微软亚洲研究院)院长、SGI公司副总裁兼总经理、苹果电脑公司副总裁等职。李开复博士是美国电气和电子工程师协会院士,美国百人会会员。创办中国青年学生成长离不开的互助平台——我学网,为青年学生答疑解惑,曾多次面向青年学生校园演讲,并出版《做最好的自己》、《与未来同行》、《一网情深》等作品。

文章