广袤的宇宙中有美丽的星云,有吞噬一切的黑洞,霍金摆脱了束缚自己躯体数十年的轮椅,告别了人类和地球。
综合自凤凰资讯、罗辑思维、澎湃新闻、中国新闻网等
据英国天空新闻等多家媒体报道,全球科学界最耀眼的巨星、被誉为“继爱因斯坦之后最伟大的物理学家之一”的斯蒂芬-霍金于3月14日在位于英格兰剑桥的家中去世,享年76岁。
他的孩子露西、罗伯特和蒂姆发表了一份声明:
“我们深爱的父亲今天去世了,他是一位伟大的科学家,一个非凡的人,他的工作和成就将会持续影响这个世界多年,他坚韧不拔的勇气、他的幽默感激励了世界各地的人们, 他说过,‘若它不是你所爱的人的家,那它就不是宇宙’。我们会永远怀念他。”
斯蒂芬-威廉-霍金(Stephen William Hawking),1942年1月8日出生于英国牛津,这天正好是“现代科学之父”伽利略逝世300周年。伽利略曾因坚持“日心说”而激怒教会,被判终身软禁。霍金对伽利略有一种很强烈的认同感,认为他对现代科学的贡献比任何人都多,但也表示自己不想分享伽利略的噩运。
而霍金去世的日期,正是爱因斯坦出生的日期。这,真的是一种巧合?
霍金21岁时患上肌肉萎缩性侧索硬化症(卢伽雷氏症,又称渐冻症),全身瘫痪,不能言语,手部只有三根手指可以活动。当医生诊断出他得了卢伽雷氏症的时候就说:这种病根本无法治愈,而且剩下的时间也不多了。但他却坚持了下来,打破了医生的诊断结果,而且活得更加灿烂,成为很多人心目中的偶像。
他23岁结婚,还生了三个健康的孩子。
1979年-2009年,他担任剑桥大学的“卢卡斯数学教授”,这是剑桥大学授予数理研究者的最高荣誉职位之一,且同一时间内只授予一人。当年的牛顿、保罗-狄拉克等科学巨匠也都获得过这一荣誉。
霍金的主要研究领域是宇宙论和黑洞,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发现象和无边界的霍金宇宙模型,在统一20世纪物理学的两大基础理论――爱因斯坦创立的相对论和普朗克创立的量子力学方面走出了重要一步。基于其重要的科学贡献,他先后获得CH(英国荣誉勋爵)、CBE(大英帝国司令勋章)、FRS(英国皇家学会会员)、FRSA(英国皇家艺术协会会员)等荣誉。
霍金的第一个理论贡献,是和英国数学家彭罗斯共同提出的“奇点定理”。简单来说,霍金和彭罗斯成功证明了:根据当前的理论和观测结果,如今广袤巨大的宇宙,一定起源于一个无限小的奇点之中。
霍金的第二个贡献,就是提出了“无边界宇宙模型”。在主流宇宙大爆炸模型中,宇宙必须要有个开端。而在霍金的无边界宇宙模型中,宇宙没有开端和起点。
霍金第三个重要的学术贡献,便是“黑洞辐射”,也被称为“霍金辐射”。过去人们认为,黑洞引力极高,任何物质都不能从中逃逸。但霍金提出:黑洞的边缘,其实在一刻不停地向外产生粒子对,其中带有负能量的会被黑洞吸收,带正能量的则可能从黑洞逃逸。这一理论,直接刷新了人们对黑洞的认识。
尽管身上有很多光环,他却称自己是一个梦想家。虽然他并不能像正常人一样行走和说话,但他用自己的大脑诠释了一个梦想家的伟大。
在过去的二十年里,霍金是明星,除了继续探索宇宙理论,他也出现在各种场合,为所有关切人类命运的主题发声。而在他去世前的这几年中,霍金最关注的话题就是:离开地球和警惕人工智能。现在我们就梳理一下霍金通过各种渠道谈论这两个话题的言论。
关于离开地球,早在2011年霍金在接受美国视频共享网站BigThink访谈时就称地球将在两百年内毁灭,人类要想活命只能移民外星球。
2017年11月5日,北京腾讯WE大会的现场。霍金通过视频指出了人类移民太空的原因所在:一个原因是,对我们来说,地球变得太小了。在过去二百年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。 这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。 “到2600年,世界将拥挤得摩肩擦踵,电力消耗将让地球变成炽热的火球。这是岌岌可危的。然而我是个乐观主义者,我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。”
而在2017年7月,霍金就痛批美国总统特朗普退出气候问题《巴黎协定》的决定,可能将导致不可逆转的气候变化,警告称此举或将让地球变成一个金星一样的温室星球。霍金在接受BBC专访时表示,我们正在接近全球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250度,并且下着硫酸雨。
也是在2017年6月播放的纪录片《远征新地球》(Expedition New Earth)中,霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。
离开地球,霍金也不是光嘴皮子吓唬吓唬大家,2016年4月12日在纽约宣布启动“突破射星”计划,将同俄罗斯商人尤里-米尔纳(Yuri Milner),以及美国社交网站面簿创始人兼总裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飞往比邻星的微型星际飞船。
除了地球即将面临的各种风险,霍金更关切人类正在创造一个毁灭自己的怪物:人工智能(AI)。
2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”他还说,“自从人类文明开始以来,侵略便一直存在,往往出现在相对具有生存能力优势的不同群体之间,而未来人工智能进一步发展便可能具备这种‘优势’”,霍金解释自己的警告时说道,“他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。”
2016年10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正式投入使用。霍金在庆祝典礼上发表了演讲。霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。“我们花了大量的时间来学习历史。”霍金说,“让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。” “我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。
2016年1月26日和2月2日在BBC电台第四频道播出霍金瑞思系列演讲(Reith Lectures),在演讲中他直言,科学技术的进一步发展会惹出更多的新麻烦。同样在这个演讲中,霍金依旧认为科技进步是人类的新威胁。他甚至提及若人类最终得以在其他星球建立家园,或许还能幸存下来。
“尽管地球在某一年遭受灭顶之灾的可能性很低,但随着时间的推移,在未来几千或几万年,这会是可以预见的事情。那时,我们应该已经进入太空、住到其他星球上。所以地球上的毁灭并不意味着人类的终结。”“然而,至少在未来数百年里我们还无法在太空世界建起人类的地盘。所以我们现在必须非常小心。”
2015年,霍金曾联合思想家乔姆斯基马斯克等数千名知识分子发表联名公开信中警告:必须取缔“机器人杀手”的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。
这封公开信由未来生活研究所(Future of Life Institute)发起,这个团体致力于缓解“人类面临的生存风险”,警告人们启动“人工智能军备竞赛”的危险。公开信中谈到“人工智能技术已经达到了这样一个地步:如果没有法律限制,那么这种系统的部署在未来几年中就可以实现,并不需要等待几十年。”
而早在2014年12月,霍金接受英国广播公司(BBC)采访时就明确表示:“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”
霍金也许对人类和科技的未来是悲观的,他并不信任人类真的能控制科技这个怪物,但令人讽刺的是,一旦人类用科技毁掉了这个星球,他所能仰赖的也只有科技能帮这个种族在外星球继续繁衍。
他还说过这些话:
“爱因斯坦错了——他说‘上帝不玩色子’。对黑洞的研究表明,上帝不光玩色子,甚至有时候他会把我们弄糊涂,因为他把它们丢到了看不见的地方。”
“我注意过,即便是那些声称一切都是命中注定的而且我们无力改变的人,在过马路之前都会左右看。”
“我的目标很简单,就是把宇宙整个明白——它为何如此,它为何存在。”
“在我21岁时,我的期望值变成了零。自那以后,一切都变成了额外津贴。”
“如果生活没有了乐趣,那将是一场悲剧。”
“永恒是很长的时间,特别是对尽头而言。”
让我们别忘记霍金的预言和警告 |