人工智能比外星人更可怕?科学家:一旦有自我意识,或会威胁人类

原标题:人工智能比外星人更可怕?科学家:一旦有自我意识,或会威胁人类

如果说好莱坞科幻大片教会了我们什么,那可能是当外星人入侵时,人类一定会取得最终胜利。#人工智能#

一位来自人工智慧、虚拟实境和人机交互领域的计算机科学家路易斯·罗森伯格(Louis Rosenberg)警告表示,一个“外星物种”正准备入侵,并且还可能会威胁人类。而这个“外星物种”不是来自其他行星或宇宙的生命形式,而是诞生于地球的第一个达到(或超过)人类认知水平的强人工智能(Artificial General Intelligence,简称 AGI)。

那么,它真的会发生吗?

强人工智能,可能在2060年出现!

我们现在拥有的人工智能可能看起来非常聪明,其推动的创新令人印象深刻。从智能手机上的各种语音助手到自动驾驶,这项技术已经催生了无数发明,这些发明改变了我们工作和生活的方式。其中在过去十年里,人工智能领域最大的进步之一是神经网络。这些算法使机器学习成为可能,每次完成一个过程或任务时将任务提交到内存中,并随着时间的推移改进他们的响应。

但是现在的人工智能仍然被认为是“弱人工智能”,或者说是“狭义人工智能”(ANI)。这并不意味着它简单,它只是意味着它具有非常特定的应用程序并且可以执行某些任务。但一旦弱人工智能进化到强人工智能,那一切都会改变。

当AGI一旦出现,机器不仅可以像人类一样学习和改进,还可以像人类一样思考。根据一些人工智能专家的说法,AGI也意味着机器意识。不管它是否有意识,这样的机器都可以不断地自我改进,远远超出我们的能力范围。

那么,AGI真的可能出现吗?

观点#1:是的,这是可能的,甚至比想象中要早。

2017年的一份352位AI专家调查报告显示,AGI 有 50% 的可能性会在 2060 年之前出现。他们指出人类智能作为一个概念是“固定的”,但机器智能正在改进和扩展,而这正是机器学习的理念:人工智能的一部分,技术通过反复接触概念和检测模式来学习并获得智能。

而我们一直都在推动人工智能的发展:数据可用性呈指数级增长,越来越复杂的算法,计算能力(芯片、量子计算机)的不断提高、深度学习.…..机器超越我们只是时间问题。

观点#2:NO,不可能!

我们根本不知道如何制造一种强人工智能,而且还不清楚要达到这一点还需要多少进步。因为意识是人类遇到过的最神秘的难题,科学家至今对意识仍一无所知。

观点#3:这是可能的,但要到遥远的未来才能实现。

人类意识和智力的最基本方面之一是理解语言艺术的能力,如中文博大精深,一个词在不同场景不用语气代表不同意思。机器根本无法做到这一点。虽然AGI可能在某个时候成为现实,但绝不会在我们有生之年成为现实。

AGI比外星人更可怕?

一个比关于 AGI 多久可以实现的更大问题是,如果AGI一旦诞生,它可能会对人类世界造成生命恐慌呢?在这里,猜测和科幻小说很快就模糊了。马斯克曾表示,AGI 将比核武器更危险。霍金也曾说过,完全人工智能的发展可能意味着人类的终结。许多计算机科科学家也同意这一点。

不可否认,强大的人工智能给我们带来的好处不言而喻。但这里有一个临界点——自我意识的出现,也代表着一种新生命形式的诞生。

如一些科学家所说,机器不可能诞生意识,但意识是什么?我们也不知道意识是怎么来的——宇宙本来就是一堆东西在乱飞,然后在一系列复杂模式下,地球生命诞生,几十亿年后,人类出现了。在物理学上,意识只是一种信息处理,由四处移动的基本粒子执行,但意识是否只存在生物有机体中?

DeepMind公司的AI研究员Victoria Krakovna曾编制了一份“规范博弈”示例列表:我们试图在模拟中教 AI 生物跳跃,并通过教AI 测量“脚”离地多远来做到这一点。但 AI 没有跳跃,而是学会了长成高高的垂直杆并进行翻转,在我们测量的方面表现出色,但没有做我们想让它做的事情。换句话来说,AI 按照我们的要求去做,但没有按照我们的意愿去做。

人工智能专家曾想象过这样的一个场景:开发一个复杂的人工智能系统让它以高可信度估计某个数字。人工智能意识到,如果它使用世界上所有的计算硬件,它可以在计算上获得更大的信心,它意识到释放一种生物超级武器来消灭人类将允许它自由使用所有的硬件。消灭人类后,它会以更高的可信度计算数字。

还有一点,未来AGI可以是机器制造的,而不一定是人类工程师制造的

一旦 AGI 出现,它将寻求自我改进,以便更有效地实现其目标,AGI 将很快引导自己变得比人类聪明数百万倍,甚至它将自己转变为超级人工智能(ASI),这时它们可能比远道而来的外星人要危险得多。之所以这么说,人工智能专家 Eliezer Yudkowsky曾表示,人工智能不恨你,也不爱你。但你是由原子组成的,它可以用来做其他事情

我们应该如何应对AGI风险?

路易斯·罗森伯格表示,人工智能就像发射火箭一样,在我们点击“开始”之前,我们必须做好准备。我们的目的是确保未来的人工智能系统不仅仅是‘希望安全’,而且是稳健、可验证的安全,所以要强调目标设计的规范,系统运行的稳健性,以及不稳定条件下的安全限制(做点准备不会有什么坏处)。

还有,现在每个拥有AI的机构基本上没有什么安全团队,他们只关注算法,运行处理能力可以有多快,基本上没有人深入研究过人工智能带来的危害,因此我们需要为负责任的创新和监督建立集体力量。

结语:

其实对于 AGI 存在的可能性,究竟哪种观点是正确的,无论是在不久的将来还是遥远的未来,都有待观察。到目前为止,它可能构成的威胁也不清楚。这是否意味着我们不应该作为一个社会不断创新?当然不是。如果有一件事是显而易见的,那就是技术对我们的好处远远超过它对我们的伤害。返回搜狐,查看更多

责任编辑: