两位大科学家关于世界未来的预言

上一篇 / 下一篇  2009-12-03 13:58:36/ 个人分类:博士

  霍金预言——未来一千年中的科学

  一种可能性就是,由于某种像核战争这样的灾难,我们将自己彻底消灭。

  把量子理论与爱因斯坦的广义相对论统一起来,并得到一个关于宇宙的基本规律的完备理论。这种理论将在从现在开始的20年内现出。

  在今后100年中,很可能我们将能够彻底地重新设计人类的DNA。

  临近新世纪的到来,对于过去一千年的回顾和对下一个千年的展望,是许多人都会感兴趣、并愿意谈论的话题。但是,关于在下一个一千年中,科学会是什么样子,也许就不是一般人都能驾驭的问题了。从1998年起,美国白宫开始组织被称为千年晚会系列活动。其目的就是要在这些聚会上,把来自许多领域的学者、科学家和有创造性的个人召集在一起,总结过去,并想象我们的未来。

  1998年3月6日,在美国华盛顿白宫东厅举行的千年晚会上,著名的剑桥大学物理学家斯蒂芬·霍金发表了题为“想象与变革:在下一个一千年中的科学”的演讲。此演讲是白宫千年晚会系列的第二次活动,也是该系列中到目前为止唯一的一次关于科学的话题。

  关于霍金,可谓是目前在世的科学家中知名度最高者。他的《时间简史》一书在世界上曾被译成33种语言,销售量高达900万册,是最畅销的科普著作之一。当然,更为重要的,是他在理论物理学和宇宙学等方面的杰出贡献。在这次展望下一个一千年中的科学发展的演讲中,面对普通的听众,霍金再次展示了他深刻的思想、超前的见解,以及将科学问题讲得深入浅出、通俗易懂的特殊才能。他在演讲中着重讨论的,是在下一个一千年中,科学和技术将怎样影响人类的活动,以及人类的活动将怎样塑造科学和技术。

  首先,在总体上,霍金认为,在现在和未来之间,必定会有巨大的变革,并伴随着局势的紧张和混乱,他对于是否我们将达到科学和技术的一种最终的稳态提出疑问。没有什么迹象表明在不远的将来科学和技术的发展将变缓和停止。虽然在过去200年中,在人口的增加和技术的发展上,呈现出一种指数型的增长,但他认为在下一个一千年中,目前的指数增长也不会继续下去。否则,到2600年,世界上的人们将摩肩接踵,电力的消费将使地球烧得通红。如果人们把新出版的书籍一本接一本地排列起来,需要以每小时90英里的速度移动才能跟上队尾。当然,到2600年,新的论文和科学著作将不是以实物的书籍和论文而是以电子的形式出现。然而,如果指数的增长继续下去,在像霍金本人所从事工作的理论物理学领域,每秒钟将有10篇论文问世,而人们则没有时间去读它们。

  显然,目前的指数增长不可能无限地继续下去。那么,将会出现什么样的情形?霍金大胆地提出,一种可能性就是,由于某种像核战争这样的灾难,我们将自己彻底消灭。但另一方面,霍金又是一个乐观主义者,认为我们仍有充分多的机会来避免世界末日的善恶大决战和新的黑暗时期。

  作为一位物理学家,霍金显然对于作为最为基础性的物理学理论的发展给予了优先的关注。他指出,在理论物理学中,在研究基本粒子时,当人们试图把量子理论与爱因斯坦的广义相对论结合起来并对之进行计算的时候,遇到了无限能量的麻烦。为了处理这种无限的能量,需要某种真正有创造性的计算方法。关键的概念是自然界中一种新的平衡或者说对称,它被称为超对称,在 1971年由两位俄国人最先提出的。在过去20年中,理论物理学中很大一部分工作,就是寻找一种在其中彻底消除无限的理论。只有这样,我们才能把量子理论与爱因斯坦的广义相对论统一起来,并得到一个关于宇宙的基本规律的完备理论。他认为有希望出现的情况是,在下一个一千年中,我们将发现这种完备的理论,而且这种理论将会是十分出色的。对于大多数将爱因斯坦的广义相对论与量子理论统一起来的努力,超对称是基础。在更大的程度上,我们不得不依赖于数学的美和一致性来发现关于万物的最终理论。无论如何,霍金确信,到21世纪末,也许可能更早些,我们就将发现这种理论。他甚至愿以一半对一半的赔率打赌,认为这种理论将在从现在开始的20年内现出。

  对于未来,有一种观点是,我们将达到一种先进但在本质上静态的水准,霍金认为,就我们关于支配宇宙的基本规律的知识来说,这有可能成为现实。但在我们对这些定律的利用方面,他并不认为我们将达到一种稳态,最终的理论将不会给我们能够制造的复杂系统带来限制,并且明确的提出,在下一个一千年中最重要的发展就在这种复杂性中。

  在霍金的演讲中,除了理论物理学之外,他所关注的另一个重要领域是生命科学。他认为,在今后100年中,很可能我们将能够彻底地重新设计人类的DNA。虽然许多人力主用于人类的遗传工程应该被禁止,但霍金却怀疑他们是否能够阻止这种遗传工程。他设想,出于经济的原因,用于植物和动物的遗传工程会得到允许,一些人必定会尝试将其用于人类。除非我们有一种集权的世界秩序,否则在某些地方一些人就会计划改良人类。显然,就未被改良的人类来说,发展改良了的人类将带来巨大的社会和政治问题。霍金并非在鼓吹人类基因工程是一件好事。他只是说,不论我们愿意与否,人类基因工程很可能在下一个一千年中出现。相应地,人类,以及人类的DNA,将很快地增加其复杂性。

  在霍金看来,从某种程度上讲,如果人类要应付周围日益复杂的世界,并迎接像太空旅行这样的新挑战,就需要改进其精神和肉体的品质。如果生物系统要领先于电子系统,它也需要增加其复杂性。目前,计算机具有速度的优势,但它们没有表现出智能的迹象。这并不令人惊讶,因为我们目前的计算机的复杂性还不如蚯蚓的大脑,而蚯蚓这个物种并不因其智力而知名。但计算机遵循由英特尔公司的戈登·莫尔提出的莫尔定律。这个定律说,计算机的速度和复杂性每18个月翻一番。这是那些显然不会无限继续下去的指数增长中的一种。不过,它可能会继续到计算机具有类似于人脑的复杂性的时候。有些人说,计算机不管可能会是什么样子,都永远不会表现出真正的智能。霍金提出,如果非常复杂的化学分子可以在人类的身上活动并使人类变得有智能,那么,同样复杂的电子线路也可能会使计算机以一种有智能的方式来行事。如果计算机是有智能的,那么它们就有可能设计具有更高的复杂性和智能的计算机。

  总之,霍金在演讲中预期,不论在生物领域还是在电子领域,复杂性都迅速地增加。他所讲的大部分情形在今后100年中都不会出现,而这就是我们可以有把握地预言的全部。但到下一个一千年的终了时,如果我们能到达的话,变革就将是根本性的了。

  

 

 

【未来】制造上帝还是制造人类终结者?

 "人工大脑"之父雨果·德·加里斯的希望和焦虑

  雨果被称为"人工智能领域的霍金"。他预言,本世纪人类定会制造出像神一样具备超级智慧的机器人,但人类可能被其消灭。在此之前,人类将因"是否制造这种人工智能机器"的争议分裂成两派,并展开一场世界大战。如果预言成真,他将是21世纪最主要的思想家之一。

  忧虑的"先知"

  在厦门市思明区浅水湾畔一座十分普通的两居室内,有一个人正在为人类的命运焦虑不安。

  "我正在建造一个在未来几十年内,将会成为神一样无所不能的东西。制造神一般的生物的期望,带给我一种宗教般敬畏的感觉,这感觉进入我的灵魂深处,强烈地激发我继续这项工作,尽管那可怕的负面效应,可能会接踵而来。……在21世纪末,人工智能机器将会比人类聪明亿亿倍,并且关于物种支配问题将会引发一场重大的战争,并导致几十亿人的死亡。

  我们是在制造上帝,还是制造我们潜在的终结者?"

  这不是科幻片中的台词,而是雨果《智能简史》一书中的一个段落。这个"人工大脑之父",就坐在《绿公司》记者对面,硕大的脑门、蜷曲蓬松的头发、一双炯炯有神的眼睛、有点奇怪的举止使他看起来与其说是一个职业科学家,不如说更像是一个异教的先知。现在,他再一次告诉我们,他所预言的"人工智能战争"无法避免。

  谁将成为21世纪的主导物种?

  雨果告诉我们,他写《智能简史》这本书的目的就是,促使人们开始思考人工智能带来的问题。作为一个人工智能科学家,他对于人工智能在本世纪的发展前景充满信心,而对人类的未来却表示悲观。

  在通往书房的门廊墙壁上,一张雨果在厦大举办讲座的蓝色海报分外抢眼,醒目的标语是"谁,将入侵上帝的禁区?"及"谁将成为21世纪的主导物种?",从日期上看,这是两个月前刚刚举办过的一次讲座。

  这恰恰是雨果关心的问题。他认为随着人工智能研究的突破性进展,围绕上述问题将会引发人类政治冲突和战争。"这并不只关系到一个国家,它关系到整个人类。" 他用一种略带夸张的庄严语气告诉我们。

  眼前这个不休边幅、年过6旬的老人,在"人工大脑" 领域有近20年研究经历。雨果1947出生于澳大利亚,23岁时取得了墨尔本大学"应用数学"和"理论物理"两个学位后,远赴英伦深造。在剑桥大学学习工作了四年,他发现了自己人生的目标,遂返回布鲁塞尔大学攻读人工智能和人工生命博士学位,成为一名研究员,正式涉足人工智能研究领域。1992年,雨果获得博士后奖学金,离开欧洲来到日本进行研究,历时8年开发出制造世界上第一个人工大脑CBM。从那一刻起,他就认识到自己的研究可能会为人类带来一场浩劫。在2000年Discovery欧洲频道邀请他与著名物理学家罗杰·彭罗斯爵士进行对话的节目中,他就提出这一观点。

  如今,他仍然坚持这种看法。他深信在"摩尔定律"趋势下,随着纳米技术、量子计算等关键技术的发展,人类在本世纪制造出神一样具备超级智能的"人工智能机器"已是必然。这些"人工智能机器"的智慧将会比人类智慧高出万亿个万亿倍(10的40次方)。

  届时,人类将会面临一种风险,那就是事态终将会失控,人类的存在对于这些神一样的"人工智能机器"将会变得无足轻重。只要这些"人工智能机器"愿意,我们随时会像"蚊子"和"细菌"一样被它们消灭掉。

  为了更形象地说明自己的观点,他突然用手掌拍了另外一只胳膊一下,"你知道这一下,多少细菌被消灭掉了?将来的人类也是这样的命运。"

  此时此刻,《终结者2018》正在影院上演,片中数十年来"机器人"与人类之间残酷的战争,使雨果形象的比喻更加真切。

  物种主导权争议引发"人工智能战争"

  雨果是目前唯一一个预言人工智能会引发人类大战的人。

  在 2005 出版的《智能简史》中,他系统性地阐发了自己的观点:从技术上讲"超级人工智能机器"一定会产生,而且智慧远胜于人类。这种人工智能机器将会与人类争夺地球上的物种主导权。这就有一种风险,人类极有可能被这种超级人工智能机器消灭掉。因此,地球主义者为了捍卫人类的物种主导权,将会禁止科学家展开人工智能研究,以防止这种可怕的局面出现;而宇宙主义者出于自身的信仰和现实需求,将会从经济和政治上坚持这种研究,展开激烈对抗。两派的争议会形成现实的政治冲突,一场战争不可避免。

  "很多战争都源于人们不能达成统一的认识,比如说资本主义与社会主义之争。今天只有几千个科学家在讨论,10年后可能就会因此形成不同的党派。战争很有可能发生。" 雨果摊开手掌,用一种确信无疑的语气说。

  雨果的"预言"一旦成真,那么就像他和斯蒂芬·霍金一起参与录制的BBC影片《地球的末日》所说的那样,人类将迎来自己的末日。

  因为按照雨果的研究图表显示,从19世纪拿破仑战争以来,人类战争的死亡人数是以10的几何级数倍增的。21世纪战争所动用的武器,将拥有空前规模的杀伤力,死亡人数将会达到10的9次方到10次方,也就是令人沮丧的几十亿。

  一个宇宙主义者的矛盾和渴望

  就像半个世纪之前发现了核链式反应的秘密,并预言一颗核弹可以毁灭一座城市的匈牙利裔犹太科学家利奥·希拉特一样,雨果感觉自己是孤独的。

  因为自他的观点在主流媒体上传播开来之际,他就不断受到质疑。很多人不相信他所说的一切,更有人对他的研究表示质疑和愤怒。既然,明知道这样一种研究会带来如此令人恐惧的局面,为什么他还要进行这种危险的研究?

  作为问题的制造者,雨果耸耸肩,坦然承认"这就是我的矛盾。"然而他不能放弃他所进行的研究。他认为这个领域还有许多事情可以做。他说"对于我个人来说,我很希望继续进行人工智能研究"。在"人工智能"争议中,他为自己选择的立场是"宇宙主义者"。尽管他没有任何宗教信仰,但是他和其他人工智能科学家一样,将 "创造"当作自己的宗教。

  说到这里,他起身从旁边的书架上取出一本厚厚的天文学著作来,翻到一张宇宙图片,指着无垠宇宙中恍若尘埃的点点星云,跟我们说,"人类就像是宇宙中的蚂蚁。与其继续做人类,我宁愿选择去创造更高级的生物。" 人类是一定要被超越的。而创造'神一样的人工智能机器',是超越人类的一种必由方式。在某种程度上,他相信我们的宇宙就是被一些智能机器创造的,因为我们生存的星球和宇宙都是那么的精确有规则。

  这是宇宙主义者们的信仰,也是雨果坚持"人工大脑"研究的理由。

  正因如此,20年来雨果在6个国家辗转奔波,唯一没有放弃的就是自己的观点和坚持不懈的研究。事实上他的研究工作并非一帆风顺:在日本实验室取得初步研究成果之后,受到排挤,被迫离开。在布鲁塞尔的私立实验室中投资10万美元,随着实验室解体,血本无归。9.11之后只身来到美国,却受困于经费不足,无法展开"人工大脑"制造。

  然而,这期间他先后制造出4台人工大脑。毫无争议的成为"人工大脑"之父。

  人类命运的终极追问

  和著名的人工智能科学家雷·库兹威尔一样,雨果相信他的研究会使生活更美好,而这也是技术存在的意义。库兹威尔也相信超人工智能一定会出现,还可以帮助人们解决困扰人类生活的疾病、能源和气候问题,使人长生不老、生活更加美好。

  但是,雨果认为库兹威尔太过乐观,政治上有点幼稚,后者完全不承认人工智能带来的社会风险以及可能引发的人类战争。而雨果认为,无论是人类试图设计友好的人工智能机器,还是将人类变成半机器人(Cyborg),都无法解决未来的困境,预言中的"人工智能战争"从理论上讲是无法避免的。

  "我们是在制造上帝,还是在制造我们潜在的终结者",这是雨果不断要追问下去的问题。

  这也将是人类在21世纪面临的终极困惑。


TAG: 世界科学家预言

chow75 引用 删除 chow75   /   2010-12-05 10:44:14
 

评分:0

我来说两句

显示全部

:loveliness::handshake:victory::funk::time::kiss::call::hug::lol:'(:Q:L;P:$:P:o:@:D:(:)

Open Toolbar