当前位置:首页 科学技艺
霍金:眼下,正是人类发展史上最危险的时刻 
作者:[霍金] 来源:[一丁微信公众号2017-01-06] 2017-01-08

编者按:这是近期网络上公开的著名理论物理学家霍金三篇文章:第一篇是霍金所做《这是我们星球最危险的时刻》,其余两篇是媒体对霍金的采访报道。


英国《卫报》网站2016年12月1日刊载著名理论物理学家斯蒂芬•霍金的文章《这是我们星球最危险的时刻》。文章如下:


精英们应当如何应对?

作为一名身在英国剑桥的理论物理学家,我这辈子都生活在自己的专属领地中。剑桥是个不同寻常的地方,这里有一所伟大的学校。这里的科学圈子甚至更加出类拔萃,我从二十多岁起就是其中的一分子。

在这个科学圈子里,与我共事的那一小撮国际理论物理学家恐怕有时会忍不住把自己看成是尖子里的尖子。不仅如此,再加上著作带来的人气,以及病痛形成的孤立感,我感觉自己的象牙塔越建越高了。

所以,近来英美精英阶层貌似遭到摒弃的现象显然也是针对我的,不亚于针对其他任何人。无论我们如何看待英国选民决定放弃欧盟成员国资格,还是美国公众决定接受唐纳德?特朗普为下一任总统,在评论家看来,这些都无疑代表了自认为被领导人抛弃的那些民众的怒吼。似乎所有人都认同,这是被遗忘者在发出自己的声音,这些人用自己的声音拒绝了任何专家和精英的建议及指导。

遭到拒绝的也包括我本人。英国举行脱欧公投之前,我曾警告说脱欧将损害英国科研事业,支持脱欧就是在支持倒退,而选民(或者说至少相当大比例的选民)没有理会我的意见,就像他们没有理会其他任何一位政治领导人、工会代表、艺术家、科学家、商人和名人向国民提出的意见一样。

眼下的重点并非两国选民做了怎样的选择,而是精英们应当如何应对。我们应不应该反过来把投票结果看成是在宣泄粗鲁的民粹主义,认定民粹主义无法认清现实,并企图规避或者限制选票所代表的选择结果?我认为如果这样做将是大错特错的。

贫富差距与民粹主义

选票背后暗藏着人们对全球化与技术加速革新所造成的经济后果的担忧,而这种心理完全可以理解。自动化工厂已经裁减了大批传统制造业岗位,人工智能的崛起很可能使就业遭破坏的情况蔓延到中产阶级,只有最需要护理能力、创造力或者管理能力的岗位才能保留下来。这将反过来加深世界范围内已然不断扩大的经济差距。互联网以及由互联网支持的平台使极少数个人只需要雇用很少的员工,就能赚取巨额利润。这种情况无法避免,这是一种进步,但这同样会破坏我们的社会。

我们还必须同时考虑到金融危机。金融危机让我们深刻认识到,极少数供职于金融行业的个人能够积累巨额收益,而我们其他人要为他们的成功背书,要在他们的贪婪把我们引入歧途时买单。所以总的来说,我们居住的世界出现了越来越大,而非越来越小的金融差距。许多人发现,正在消失的不只是生活水准,还包括他们的谋生能力。难怪这些人要寻求新的协议,而特朗普和脱欧似乎成了新协议的代表。

还有另一种情况。互联网与社交媒体在全球的传播带来了另一个意想不到的后果:上述差距赤裸裸的本质比以往任何时候都更加显眼。对我个人而言,能够使用通信技术给了我自由,代表了一种积极的体验。没有通信技术,我根本无法从事过去这么多年的工作。

但这同样意味着全球最繁荣国家的最富裕人群的生活状态明晃晃暴露在所有人面前,无论你有多穷,只要有一部手机就能看到。而且,既然在如今的撒哈拉以南非洲,拥有手机的人比能够得到清洁饮用水的人还要多,这就等于说在日益拥挤的地球上,几乎每个人都逃脱不了贫富差距的影响。

由此带来的后果太明显了:农村贫民在希望的驱使下拥到城里,拥入贫民窟。然后他们常常发现城里没有社交媒体描述的那种天堂,于是又去国外寻找,加入日益庞大的经济移民大军,去追寻更好的生活。这些移民反过来对接纳国的基础设施和经济状况提出新的要求,消磨了当地人的忍耐力,进一步激起政治民粹主义。

眼下人类发展史上最危险的时刻

在我看来,这种现象真正令人担忧的地方在于,此时此刻比历史上任何时期都更需要全人类团结协作。我们面临艰巨的环境挑战:气候变化、食品生产、人口过剩、物种灭绝、流行病以及海洋酸化。

这些挑战加在一起,提醒我们,眼下正是人类发展史上最危险的时刻。我们目前的技术足以破坏我们居住的星球,但我们还不具备逃离这颗星球的能力。或许一两百年后,我们将在星际建立人类殖民地。但此时此刻,我们只有一个地球,我们必须携起手来,保护地球。

为了这个目标,我们必须打破国家内部以及国家之间的障碍,而非新添障碍。若想做到这一点,世界各国领导人必须承认,他们从过去到现在都在辜负大众的期望。随着资源日益集中到少数人手中,我们必须变得比现在更懂得如何分享。当消失的不只是岗位,还包括整个行业时,我们必须帮助人们接受再教育,迎接新的世界,必须在他们接受再教育的过程中提供经济支持。如果社会和经济无法应对现有的移民规模,我们必须通过更多措施鼓励全球协同发展,因为这是说服千百万移民大军转而在家乡寻找未来的唯一方法。

我们能够做到。我非常看好我们人类。但这需要所有精英,从伦敦到哈佛,从剑桥到好莱坞,都吸取过去一年的教训。而且首先要学会保持一定程度的谦逊态度。


【延伸阅读】霍金:失控的人工智能很难被阻止住


据俄罗斯卫星新闻通讯社消息,著名天体物理学家史蒂芬·霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。

在RT美国台(RT America)播出的节目中美国知名记者拉里·金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。

霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”

他指出,人工智能可以比人类的智慧发展得更快。

他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”

他认为,有益的人工智能将出现在人类生活的各方面。

霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”


              霍金:地球无法支持人类再活1000年 需要探索太空


2016年11月16日消息,据英国《每日邮报》报道,英国著名理论物理学家史蒂芬·霍金教授(Stephen Hawking)日前在牛津大学联盟发表演讲,宣称脆弱的地球无法支撑人类再生活1000年,地球上的生命面临被灾难抹杀的危险与日俱增,比如核战、基因工程病毒或人工智能崛起等,人类必须尽快逃离。

在这次演讲中,霍金花了一个小时讲述了有关人类对宇宙起源理解的进程,从原始的人类创造神话到依据“M理论”做出的最新预言。他说:“也许有一天,我们将能够利用引力波回望大爆炸的核心。”

霍金指出:“宇宙学一直在不断取得进展,但为了人类的未来,我们必须继续进入太空。”霍金曾表示,他打算乘坐维珍集团老板理查德·布兰森的太空飞船进入太空。他继续说:“因此,我希望鼓励公众对太空感兴趣,在这方面我很早就获得了培训。”

此前在《如何制造太空船》一书中,霍金曾在其后记中警告称,由于面临着战争和疾病威胁,地球正变成越来越危险的地方。霍金阐述了他的未来太空旅行观点。他说:“我认为地球上的生命面临被灾难抹杀的危险越来越高,这些危险包括突然爆发的核战、基因工程病毒以及其他因素。如果不进入太空,我认为人类将不再拥有未来。”

霍金向参加其演讲的学生们呼吁:“记住要仰望星空,而不要只关注你的脚下!试着了解你所看到的,并思考宇宙存在的意义。你们要保持好奇心,但是生活中似乎总有些事情是你们能做到并取得成功的,最重要的是永远不要放弃!”

在他以“宇宙起源”为主题的演讲中,他表示他目前正在努力去证明宇宙起源同样遵守物理学规律,同时符合现代物理学家称为M理论的内涵。

M理论包含了爱因斯坦的广义相对论,该理论将空间和时间相结合,凭借这些爱因斯坦预测黑洞的存在以及量子理论,它预言了亚原子粒子,设在日内瓦的欧洲核子研究中心的大型强子对撞机正对其进行测试。霍金称:“这是唯一具有我们认为终极理论应该具有的全部属性的统一理论。”

霍金是有名的“外星殖民”理论的支持者,此前新华社报道称,霍金十分确信在地球之外的其他世界存在着智慧生命,但他警告人类应当想尽一切办法避免与这些外星生命接触。

霍金表示:“我们只需要看看自己,就能知道这些外星生命会如何变得让我们宁愿没碰见过他们。如果外星人来拜访人类,我想其结果会变得与哥伦布到达新大陆时非常相似,那对美洲土著可并不有利。”(编者/刘一丁)



相关文章:
·朱向前:这个诗人的诗魂,正是新中国的诗魂
·哲学已死——霍金
·霍金:眼下,正是人类发展史上最危险的时刻
·美国博古睿研究院:正是民主造就了西方民粹主义
·【英】史蒂芬·霍金:一切都是注定的吗?
大六经工程 |  国学网站 |  香港中国文化研究院 |  联合早报网 |  时代Java教程 |  观察者网 | 
环球网 |  文化纵横网 |  四月网 |  南怀瑾文教基金会 |  学习时报网 |  求是网 | 
恒南书院 |  海疆在线 | 
版权所有:新法家网站  联系电话:13683537539 13801309232   联系和投稿信箱:alexzhaid@163.com     
京ICP备05073683号  京公网安备11010802013512号