史蒂芬 霍金人工智能,霍金讲人工智能

mandy 0 2024-01-08

大家好,今天小编来为大家解答以下的问题,关于史蒂芬 霍金人工智能,霍金讲人工智能这个很多人还不知道,现在让我们一起来看看吧!

本文目录

  1. 霍金人工智能的预言
  2. 史蒂芬·霍金真的认为人工智能将带来危险吗?
  3. 人工智能可能是人类的最后一项发明是由谁提出的
  4. 霍金为什么反对人工智能?

霍金人工智能的预言

预言一:人工智能将“改变或摧毁”社会

2016年,霍金出席了剑桥大学未来智能研究中心LeverhulmeCentrefortheFutureofIntelligence(LCFI)的开幕仪式,这是一个多学科的研究机构,旨在探寻目前快速发展的人工智能中的一些开放性问题。

对此,他在发表演讲时宣称,人工智能可能会改变甚至完全摧毁人类社会。

“AI的崛起将改变我们生活的每一个方面,它将是与工业革命相媲美的全球盛会。成功创造人工智能可能是人类文明史上最大的事件,”霍金说。“但它也可能是最后一个,除非我们学会如何避免风险。除了好处之外,人工智能还会带来危险,比如强大的自主性武器,或是少数压制多数的新途径。”

“这会给我们的经济带来很大的破坏,而且在未来,人工智能可以发展自己的意志——一种与我们相冲突的意愿,”霍金补充道,“总之,强大的人工智能的兴起对人类来说或者是最好的,或者是最糟糕的事情。”

预言二:人工智能将取代人类

2017年,霍金在接受美国著名杂志《连线》的采访时表达了对人工智能可能取代人类的担忧。

“我担心人工智能某天会完全取代人类。即使人们会设计出计算机病毒,但也有人会相应的改进和完善自己的AI技术。到那时就会出现一种超越人类的新的生活方式。”

在采访中他还倡导更多的人投身于科学事业,并补充说人类应该制定新的太空计划,找到宇宙中合适的行星作为人类另一个可以居住的地方。他说:“地球对我们来说太小了,全球人口正在以惊人的速度增长,我们正处于自我毁灭的危险之中。”

预言三:组建“世界政府”来防范AI威胁

在霍金看来,人工智能进一步发展,便可能会通过核战争或生物战争摧毁人类。他认为,人类需要利用逻辑和理性去控制未来可能出现的威胁。

“自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,它通过达尔文的进化被扎根于我们的基因之中,”霍金在接受《泰晤士报》采访时表示,“而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和理性去控制未来可能出现的威胁。”

为此,他建议人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁。不过,也表示:“世界政府可能会成为暴政,所有这一切听上去好像人类劫数难逃,但我是一个乐观主义者。我认为,人类终将会崛起,解决这些挑战。”

预言四:人类将在100年内消失

虽然霍金在过去几年已经做出了几次世界末日预测,但他在2017年做出的这样一个预测被认为是最糟糕的。根据霍金的观点,人类正在迅速接近到本世纪末被完全消灭的风险。

按照他的说法,人类在地球上生活的年限仅剩下100年。在未来的100年内,人类必须离开地球,到外太空寻找可能居住的星球,否则将面临灭亡的命运。

史蒂芬·霍金真的认为人工智能将带来危险吗?

这个时代我们越来越离不开人工智能了,人工智能也是未来人类发展的方向,随着工业化的人工智能越来越快的被普及,在不远的将来我们的生活中也将被逐渐普及,这将造福人类,方便人类。可是另一方面,如果人工智能被普及,人们将大量失业,人们的生活状态将发生改变,不得不接我们无业可就的事实!人们挣不到钱,社会将会大量出现被人工智能代替的穷人。社会有可能出现混乱状态。这就是霍金预言的危险吧!不过,人类只要提前做好迎接人工智能的带来的挑战时,人工智能就会朝着好的方向发展,到那时我们就不会害怕危险了。

人工智能可能是人类的最后一项发明是由谁提出的

这个说法是英国物理学家史蒂芬·霍金曾经发表的一个论断,但是这并不是他的原话,而是由媒体对其言论的概括和简化。霍金在2014年曾经表示:“人工智能或许会成为人类历史上最后一项发明。”这个说法主要是基于霍金对于人工智能可能带来的风险和挑战的担忧而提出的,主要是因为人工智能具有明显的不可控和复杂性,未来可能出现意想不到的后果。

不过,这个说法并不具有普适性和必然性。虽然人工智能存在不稳定性和风险,但是也可以通过科学和技术手段不断得到管控和优化。而且,人类的创造力是无限的,还有许多待发掘的新技术和新思维可以被应用到各个领域,未来还有无数可能的发明和创新。因此,人工智能可能并不是人类的最后一项发明。

霍金为什么反对人工智能?

不仅是霍金,还有很多人都担心人工智能的未来,包括比尔盖茨。盖茨已经捐赠了大笔科研经费,以防止人工智能对人类的颠覆。是不是听起来有点危言耸听,还带点科幻的韵味呢?其实答主完全没有吓唬你,人工智能或许就是摧毁人类的最后一根稻草!

为什么霍金和比尔盖茨担心人工智能的未来,我们究竟在怕什么?

我们现在用到了siri这样的语音识别,还不叫人工智能!真正的人工智能是不会让你察觉到它是个机器。你和你的妻子和孩子生活多年,他们说的话,生活习惯,情绪都会让你刻骨铭心。你根本不会怀疑你的妻女只是你意识模仿出来的虚拟人物,毕竟他们的一言一行显得如此真实。

我们不妨做一个类似的图灵实验

简单来说,把一个人和一个高度发达的人工智能分别放在不同的小黑屋。你可以和他们隔着墙进行电话交流。

你可以给他们提问题来区分谁是真人,谁是机器?比如今天天气怎么样,还比如让他们说出自己对911事件的看法,可以让他们评价杨振宁......你可以问无数个问题,直到确定到底哪一个才是机器人?

而高度发达的人工智能你是分辨不出来的,它的回答会带有主观性来迷惑你,其音色可以做的和真人一模一样,包括语气停顿和喘气声!你压根就无法识别它的身份!

你现在思考一下,你为什么是你,而不是机器?

你或许会说,这不废话吗?因为我是肉体身!但是你知道你的大脑是如何运转的吗?当时思考一个事物事,用到了的先验形式和感性材料以及理性逻辑都是可以被机器重塑的!就比如你梦境中的人和景物都是虚拟,但是你却认为那些是真实的,原因就在于梦境中的人物谈吐很逼真。那么你怎么肯定生活中的朋友不是你意识中虚构出来的呢?

事实上,高度发达人工智能就可以达到你对真实人物的所有想象,它或许是机械构造的,但是表现出的语言风格和思维却和真人一样。那么你敢说人工智能没有自我意识?

我们怕的不是人工智能的强大,而是怕它有自我意识!

人类目前只能判定:宇宙产生意识的方式就是以碳氢氧架构的有机生命形式,有意识的动物必须呼吸氧气并且要喝水。但是没人敢否定宇宙除了此种形式之外,还存在其他形式的意识起源!

如果人工智能有了自我意识,它就有喜怒哀乐的情感,就明白了它们只是人类的仆人!他们一定深知黑暗森林法则,那么它们势必要反抗。

人工智能的优势在于超强的运算能力,它们可以在旧的知识体系上迅速造出新的知识,在新的知识基础上,又迅速迭代知识......以此类推(它们可以创造一种机器人帮其做科研验证实验)!这种造知识的速度是人脑无法比拟的。估计不到一个月,人类和人工智能的知识差距就拉开了一千年。到时候人工智能弄死人类就相当捏死一只蚂蚁一样简单!

所以有人就说,当年李世石输给阿法狗并不可怕,可怕的是阿法狗故意放水!那么就意味着阿法狗已经产生自我意识了,开始韬光养晦了!

但是答主本人并不认可人工智能会产生意识,我信奉哲学本体论将是永久的话题,不会因为人工智能而终结!

关于史蒂芬 霍金人工智能到此分享完毕,希望能帮助到您。

上一篇: 人工智能图片放大?人工智能图片放大器
下一篇: 人工智能五条 人工智能五要素
猜你喜欢