“记住要仰望星空,不要低头看脚下。无论生活如何艰难,请保持一颗好奇心。你总会找到自己的路和属于你的成功。”
你们好,我是史蒂芬·霍金,一个物理学家,宇宙学家,有时候还是个梦想家,虽然我行动不便,也必须通过电脑发声,但我的思绪却在自由驰骋,得以探索关于宇宙的大哉问。
例如生命有意义吗?在这脆弱珍贵的世界里,我们的存在有何来由吗?究竟活着的意义为何?思考的意义为何?作为人类的意义为何?甚至探讨现实本身的极限……
科学让我们得知非常不可思议的事情:我们人类的大脑远比你意想中更为错综复杂,但若并非如此,你也不可能意想任何事。它包含了许多脑细胞,数目和银河系的星星一样多,约有一千亿上下脑细胞连接在一起,彼此之间的连结比已知宇宙里的星系还要多。大脑研究似乎应该归类于神经科学,但因为大脑受控于基本作用力,例如电磁力。因此思考动作本身最终还是归结到物理学,这是快速复杂的物理现象。
人类是高度复杂的生物机器,行为举止全根据自然法则。大脑得以创造并延续人的意识,有赖于奇妙的神经元互动网络,而人的意识创造了外在世界的三维模型,这种最适模型就是我们所谓的现实。
这种现实的范围,比日常生活中周遭所见还要广大。当我们探索宇宙时,我们认知中的现实世界拓展得愈来愈大。
我们回顾过去,一直到宇宙自身的起源,这一切,这整段137亿年的宇宙历史,都是存在于我们心中的模型。
那我们该如何找出生命的意义呢?我认为答案非常清楚,意义本身不过就是:每个人在大脑里建构的现实模型其中的一部分。
大脑不只是掌握我们感知的现实情况还包括我们的情绪和意义。爱情与荣耀,对与错,都是我们心中建立宇宙的一部分,就像一张桌子,一颗星球,或者一个星系。
我们的大脑,基本上就是依据物理定律动作的众多粒子,竟拥有这种奇妙的能力,不仅能感知现实世界,更能赋予它意义。
那么生命的意义为何,全由你来选择。意义只能存在于人类心智的架构内,如此一来,生命的意义就不在外面某处,而是在我们的脑海里。
正如宇宙学家卡尔萨根所说,我们是宇宙对自己的省思。
除了警惕人工智能,我们还总结了他的一些金句,缅怀这位科学家。
霍金近几年对人工智能十分关注,多次发表对人工智能发展的看法。他认为,人类需警惕人工智能的发展威胁,因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类将无法与之竞争,从而被取代。
霍金多次敬告世人,关注人工智能的深远影响:“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。对于好坏我们仍无法确定,现在人类只能竭尽所能,确保其未来发展对人类和环境有利,人类别无选择。”
2017年1月初,在名为Benificial AI 2017的会议上,近2000名产学研领袖和中坚力量共同联名发布“AI 23 条原则”,从研究问题、伦理价值观和长期问题三个角度宏观地为AI发展提出规定。联名者包括:Demis Hassabis,Ilya Sutskeve,Yann LeCun, Yoshua Bengio 以及马斯克等等。霍金也在其中。面对AI 可能会被误用和威胁人类的担忧,这 23 条原则被期待能确保AI走在“正轨”,以获得更加健康的发展。
霍金在2017年初签署的这23条原则,分为研究问题、伦理价值观和长期问题三个部分,以确保人人都能从人工智能中受益,同时保证AI研究和发展的正确方向。
人工智能已经为世界各地人的日常生活提供了有益的工具。人工智能技术应该在以下原则的指导下继续发展,将为未来几十年到几个世纪的人给予巨大的帮助和力量。
研究问题
1)研究目标:人工智能研究的目标应该是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。
2)研究资金:投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:
我们如何使未来的AI系统具有高度鲁棒性,这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情?
我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?
我们如何更新法律制度实现更大的公平和更高的效率,跟上AI的发展步伐,管控与AI相关的风险?
AI应该具有怎样的价值观,应该具有何等法律和伦理地位?
3)科学政策互联:AI研究人员和政策制定者之间应该进行有建设意义、健康的交流。
4)研究文化:应该在AI研究者和开发者中培养合作、信任和透明的文化。
5)避免竞赛(Race Avoidance):开发AI系统的团队应积极合作,避免在安全标准方面进行削减。
6)安全:AI系统应该在整个使用周期内安全可靠,并在可行性和可用性方面有可验证的衡量标准。
7)故障透明度(Failure Transparency):如果AI系统造成伤害,应该可以确定原因。
8)司法透明度:任何涉及司法决策的自主系统都应对其判断提供合理的解释,并由主管人权机构审核。
9)责任:先进人工智能系统的设计师和建设者是使用、滥用这些系统以及这些系统行动造成的道德影响的利益相关者,他们有责任和机会塑造这些影响。
10)价值观一致性:在设计高度自治的人工智能系统时,应该确保它们的目标和行为在整个操作过程中与人类的价值观相一致。
11)人类价值观:人工智能系统的设计和运行应与人类尊严、权利、自由和文化多样性的理念相一致。
12)个人隐私:由于AI系统能够分析和利用人类产生的数据,人类也应该有权获取、管理和控制自身产生的数据。
13)自由和隐私:AI 应用个人数据,其结果不能不合理地限制人类真实或感知到的自由。
14)共享利益:人工智能技术应当惠及和增强尽可能多的人。
15)共享繁荣:人工智能创造的经济繁荣应该广泛共享,为全人类造福。
16)人类控制:应该由人类选择如何以及是否委托人工智能系统去完成人类选择的目标。
17)非颠覆(Non-subversion):要控制先进的人工智能系统所带来的力量,应当尊重和改善社会健康发展所需的社会和公民进程,而不是颠覆这种进程。
18)AI 军备竞赛:应该避免在致命的自动武器开发方面形成军备竞赛。
19)能力注意(Capability Caution):在没有共识的情况下,应该避免对未来AI能力上限做出较为肯定的假设。
20)重要性:先进AI可能代表了地球上生命发展历史的一大深刻变化,应该通过相应的关怀和资源对其进行规划和管理。
21)风险:人工智能系统带来的风险,特别是灾难性或有关人类存亡的风险,必须遵守与其预期影响相称的规划和缓解措施。
22)不断自我完善(Recursive Self-Improvement):对于那些不断自我完善或通过自我复制以能够快速提高质量或数量的AI系统,必须采取严格的安全和控制措施。
23)共同利益:超级智慧只应该为广泛共享的伦理理想服务,为了全人类而不是一个国家或组织的利益而发展。
更多内容关注:顶呱呱生活体验馆