霍金去世的消息令全世界都陷入深切哀悼。霍金曾积极关注人工智能,指出我们要对AI发展保持警惕。3月14日也是爱因斯坦诞辰139年的日子,上帝在同一天送来了一位天才,而带走了另一位。人类对宇宙和AI的探索永无止境,让我们以这样的方式祭奠这两位伟人。

据英国天空新闻等多家媒体3月14日消息,著名物理学家史蒂芬 · 霍金(Stephen Hawking)去世,享年76岁。
霍金教授的孩子Lucy、Robert 和 Tim在一份声明中说:
我们亲爱的父亲今天去世了,我们深感痛心。
他是一位伟大的科学家,也是一位非凡的人,他的工作和成就将会留存多年。
他的勇敢和坚韧,他的才华和幽默激励了全世界的人们。
他曾经说过,“如果宇宙不是你所爱的人的家园,它就不是宇宙。”
我们将永远想念他。
斯蒂芬·威廉·霍金(Stephen William Hawking),1942 年 1 月 8 日出生于英国牛津,是现代最伟大的物理学家和宇宙学家之一、20 世纪享有国际盛誉的伟人之一。
霍金近几年对人工智能十分关注,多次发表对人工智能发展的看法。他认为,人类需警惕人工智能的发展威胁,因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类将无法与之竞争,从而被取代。
霍金多次敬告世人,关注人工智能的深远影响:“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。对于好坏我们仍无法确定,现在人类只能竭尽所能,确保其未来发展对人类和环境有利,人类别无选择。”
霍金的孩子露西、罗伯特和蒂姆在一份声明中说:“我们深表遗憾,我们深爱的父亲今天去世了。

对于其他科学家和朋友来说,霍金的直觉和幽默感,以及他残破的身体和合成声音一样多,象征着人类心灵的无限可能。
不仅如此,他也积极参与到各项活动中。2017年1月初,在名为Benificial AI 2017的会议上,近2000名产学研领袖和中坚力量共同联名发布“AI 23 条原则”,从研究问题、伦理价值观和长期问题三个角度宏观地为AI发展提出规定。联名者包括:Demis Hassabis,Ilya Sutskeve,Yann LeCun, Yoshua Bengio 以及马斯克等等。霍金也在其中。面对AI 可能会被误用和威胁人类的担忧,这 23 条原则被期待能确保AI走在“正轨”,以获得更加健康的发展。
霍金在2017年初签署的这23条原则,分为研究问题、伦理价值观和长期问题三个部分,以确保人人都能从人工智能中受益,同时保证AI研究和发展的正确方向。
人工智能已经为世界各地人的日常生活提供了有益的工具。人工智能技术应该在以下原则的指导下继续发展,将为未来几十年到几个世纪的人给予巨大的帮助和力量。
研究问题
1)研究目标:人工智能研究的目标应该是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。
2)研究资金:投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:
我们如何使未来的AI系统具有高度鲁棒性,这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情?
我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?
我们如何更新法律制度实现更大的公平和更高的效率,跟上AI的发展步伐,管控与AI相关的风险?
AI应该具有怎样的价值观,应该具有何等法律和伦理地位?
3)科学政策互联:AI研究人员和政策制定者之间应该进行有建设意义、健康的交流。
4)研究文化:应该在AI研究者和开发者中培养合作、信任和透明的文化。
5)避免竞赛(Race Avoidance):开发AI系统的团队应积极合作,避免在安全标准方面进行削减。
伦理和价值观
6)安全:AI系统应该在整个使用周期内安全可靠,并在可行性和可用性方面有可验证的衡量标准。
7)故障透明度(Failure Transparency):如果AI系统造成伤害,应该可以确定原因。
8)司法透明度:任何涉及司法决策的自主系统都应对其判断提供合理的解释,并由主管人权机构审核。
9)责任:先进人工智能系统的设计师和建设者是使用、滥用这些系统以及这些系统行动造成的道德影响的利益相关者,他们有责任和机会塑造这些影响。
10)价值观一致性:在设计高度自治的人工智能系统时,应该确保它们的目标和行为在整个操作过程中与人类的价值观相一致。
11)人类价值观:人工智能系统的设计和运行应与人类尊严、权利、自由和文化多样性的理念相一致。
12)个人隐私:由于AI系统能够分析和利用人类产生的数据,人类也应该有权获取、管理和控制自身产生的数据。
13)自由和隐私:AI 应用个人数据,其结果不能不合理地限制人类真实或感知到的自由。
14)共享利益:人工智能技术应当惠及和增强尽可能多的人。
15)共享繁荣:人工智能创造的经济繁荣应该广泛共享,为全人类造福。
16)人类控制:应该由人类选择如何以及是否委托人工智能系统去完成人类选择的目标。
17)非颠覆(Non-subversion):要控制先进的人工智能系统所带来的力量,应当尊重和改善社会健康发展所需的社会和公民进程,而不是颠覆这种进程。
18)AI 军备竞赛:应该避免在致命的自动武器开发方面形成军备竞赛。
长期问题
19)能力注意(Capability Caution):在没有共识的情况下,应该避免对未来AI能力上限做出较为肯定的假设。
20)重要性:先进AI可能代表了地球上生命发展历史的一大深刻变化,应该通过相应的关怀和资源对其进行规划和管理。
21)风险:人工智能系统带来的风险,特别是灾难性或有关人类存亡的风险,必须遵守与其预期影响相称的规划和缓解措施。
22)不断自我完善(Recursive Self-Improvement):对于那些不断自我完善或通过自我复制以能够快速提高质量或数量的AI系统,必须采取严格的安全和控制措施。
23)共同利益:超级智慧只应该为广泛共享的伦理理想服务,为了全人类而不是一个国家或组织的利益而发展。
今天,也是爱因斯坦的诞辰。

历史如此巧合。这两位伟大的科学家已经离我们而去,但人类对宇宙、人工智能的探索永无止境。让我们以这样的方式来纪念他们。
一个黑洞拉拽伴星的物质,形成一个围绕黑洞旋转的物质圆盘,并最终落入黑洞(艺术想象图)。图片来源:美国国家航空航天局科技日报北京5月27日电(记者刘霞)爱因斯坦的预测又对了。英国牛津大学科学家领导的国际......
伴随人工智能的兴起,人工智能的安全问题如影随形。5月21日,欧盟理事会批准了世界首部对人工智能进行全面监管的法案《人工智能法案》。同一天,第二届人工智能安全峰会在韩国首尔召开,包括OpenAI、微软、......
4月27日,随着爱因斯坦探针卫星首批在轨科学探测图像的正式发布,中国科学院国家天文台研究员袁为民一直悬着的心终于放下了。这颗由中国科学院牵头、多个国际团队参与研制的空间科学卫星不负众望,成功“抓拍”到......
国家天文台EP卫星实验队部分成员在西昌卫星发射中心合影。国家天文台供图近日,爱因斯坦探针(EP)卫星任务发布了首批在轨科学探测图像。包括银河系中心的观测图像、暂现源图像、蟹状星云观测图像、梅西耶87(......
近日,爱因斯坦探针(EP)卫星任务发布了首批在轨科学探测图像。包括银河系中心的观测图像、暂现源图像、蟹状星云观测图像、梅西耶87(M87)椭圆星系观测图像等在内的11幅科学图像展示了宇宙“焰火”。“我......
4月27日,2024中关村论坛年会平行论坛空间科学论坛在京召开。由中国科学院牵头实施的爱因斯坦探针(EP)卫星任务发布了第一批在轨探测图像。爱因斯坦探针(EinsteinProbe,简称EP)卫星是中......
由中国科学院牵头实施的爱因斯坦探针(EP)卫星任务发布了第一批在轨探测图像。EP卫星是中国科学院空间科学二期先导专项立项并实施的空间科学卫星系列任务之一,由中方主导,欧洲航天局(ESA)、德国马普地外......
根据史蒂芬·霍金的著名辐射理论,随着事件视界(黑洞最外层的边界)对周围量子场的破坏,黑洞会随着时间蒸发,并以一种奇怪的辐射形式逐渐失去质量。但分析表明,事件视界对这一过程并不是必不可少的。日前,据荷兰......
韩国东国大学、汉阳大学等联合研究团队首次通过低温金属硅中的量子自旋现象发现新量子材料。量子自旋的粒子会相互影响,产生磁性。利用这一特性可提高量子计算机性能,甚至有助于创造室温超导体。联合研究团队在对量......
7月13日,激光相对论卫星2号(LARES-2)从法属圭亚那库鲁的欧洲航天局(ESA)太空港发射。它由意大利航天局(ASI)建造,耗资约1000万欧元(1020万美元),并在欧洲织女星火箭升级版本Ve......