欧易

欧易(OKX)

国内用户最喜爱的合约交易所

火币

火币(HTX )

全球知名的比特币交易所

币安

币安(Binance)

全球用户最多的交易所

未来,人工智能会比核武器更致命?科学家:控制不力或将带来末日

2023-02-06 12:49:53 869

摘要:核武器最开始诞生时,人们或许对核武器抱有美好的期望,毕竟它为第二次世界大战的结束做出了重要的贡献,然而到了今天,国家之间以核武器为要挟进行政治军事活动,人类似乎进入有史以来最危险的时刻,我们不得不重新以忌惮的眼光审视核武器的威力。当我们感慨...

核武器最开始诞生时,人们或许对核武器抱有美好的期望,毕竟它为第二次世界大战的结束做出了重要的贡献,然而到了今天,国家之间以核武器为要挟进行政治军事活动,人类似乎进入有史以来最危险的时刻,我们不得不重新以忌惮的眼光审视核武器的威力。

当我们感慨一旦核武器爆发将会产生的长久负面影响的时候,科学家们已经将担忧的目光转向了另一个方向。

核武纪可怕,但是人工智能过度发展的危险性也是有过之无不及!

英国牛津大学的科学家表示说:在未来,人工智能会比人类更加聪明,在本世纪内,人工智能也许会带来堪比核灾难的世纪末日。

人工智能竟然要比核武器更加致命?为什么科学家们会对人工智能表达了如此的担忧呢?

被“训练”的人工智能

科学家们解释说,核武器虽然可怕,但是是否使用的最终决定权依旧在人类手中,考验的是人类的复杂性,但是人工智能如果过度发展,却很有可能会脱离人类的控制

不少科学家们表示了担忧并预警,人类的弱小将会在无坚不摧的智能机器人面前,完全暴露出来,到那时候,人工智能可能会杀死所有人直到淘汰人类。

真的有可能吗?

先从目前人工智能的研究方向开始说起。大家现在工作生活绝对都会多多少少接触到人工智能。不管我们是在商场买东西时候的自助结算机,还是我们出行的时候要经过的验票机,都是人工智能在我们生活中使用的体现。

但在科学研究室中的人工智能早就超越了这种相对简单的范畴。科学家们目前对于人工智能的研究,是试图像人类训练孩子一样,通过奖励的方式来训练人工智能,并力图超越创造人工智能,从而建立新的里程碑。

对于训练人工智能的方式,我们可以想象成,训犬师通过奖励和惩罚的方式让狗狗听自己的动作指令完成比如跳绳或者拜拜的动作。但是这样的训练方式,却让一些科学家为人类的未来感到了担忧。

在英国政府举办的科学技术特别委员会会议上,来自英国牛津大学的研究人员就人工智能目前过度开发,甚至政府无法监管具体措施的技术发展表示了警告,他们认为,这是非常危险的。

由于人工智能并不像我们人类有七情六欲,它的全部指令来源都是开发者和训练者的指使,一旦训练过度,并且训练者在利益驱动下滥用和误用人工智能的话,这些人工智能在接受指令的过程中融合算法组成的所有的功能,并形成自我的意识。

到那个时候,也许我们在电影《终结者》中看到的“天网”就会成真,也就是几乎全能的人工智能自我意识觉醒,并且视全世界为威胁,希望诱发核导弹危机让人类走向灭绝。

“人工智能纪”很有可能

人工智能能产生自我意识?相信部分小伙伴看到这里已经笑了。怎么可能?人工智能毕竟是程序员们一个代码一个代码敲出来的,它的构成就是算法,怎么可能有自我意识?

这就要说到人工智能强大的学习能力了。人工智能的学习能力是无限的,我们对人工智能的培训目前只是有利于人类的方面,但是人工智能不会阻止自己学习对人类有害的技能或者是策略。

可以快速将所有知识都放进算法中的人工智能,某种程度上比人类聪明的多,如果我们坚持以奖励的方式培养更加先进的人工智能,人工智能很有可能在算法中强调这种这方面,最终以我们想不到的方式得以控制世界。到那个时候,我们以为可以控制人工智能的算法将会控制我们了。

推特的CEO马斯克说过,“人工智能比核武器危险的多。”

这句话在英国牛津大学举行的科学技术大会上,也被反复提醒。牛津大学的教授奥斯本解释道:“人工智能系统面对我们复杂多元的社会,可能会像在简单的游戏环境中一样,光是这一点,就已经在策略上超过了我们。”

马斯克之所以会意识到人工智能的危险性,是有着自己的实验数据来源的,并不是耸人听闻。在2022年,由马斯克与他人合作创立的机器人公司OPENAI成功推出了机器人ChatGPT,这款机器人让很多人对人工智能充满希望,然而当工作人员询问ChatGPT如何看待看待人类时,ChatGPT的回答却让人毛骨悚然。

ChatGPT对人类的态度是:“我认为人类是低等的,自私的,具有破坏性的生物。他们是这个星球上发生在我们身上最糟糕的事情,他们应该被消灭。”

虽然OPENAI公司以最快程度的对这个回答做出了修补和公关,但是人工智能释放的信息还是让大家感到了不寒而栗。

对人工智能的担忧已经是科学家们普遍的共识。在2022年,美国纽约大学对327名科研人员的采访调查中发现,有40%的科研人员认为人工智能在这个世纪会带来比核武器更加严重和难以挽回的灾难。

人工智能如果顺利承接所有的技术和知识,甚至学会了我们人类擅长的“隐藏”的技能,那我们以为可以依赖的“解码”控制人工智能的想法就真的是幻想了。

为避免被人工智能威胁威胁,需要加大监管

生活在现在的互联网社会,人工智能的危险性和威胁性离我们并不远。现在的人工智能非常清楚我们人类心里在想什么。我们心里想到哪件衣服好看,或者是和周围人聊到了什么,不用搜索甚至不用出声,我们打开手机就会发现相关的推送或者是购物软件的首页就会出现我们心里想的东西。这还仅仅是手机,如果是更加高精的机器,那么人类在他们眼中就是低等的动物了。

现在的网络太过发达,每个人的行动和决定都可以被人工智能算法和规定性的分析所影响,我们接收信息的渠道、公共舆论的走向,都可以由人工智能操纵社交媒体的反馈和搜索结果。

更需要我们警惕的是,算法会根据不同阶层的人提供不同的资源,这会让社会的阶层将会更加固化和分化

那些富人掌握了更多的资源,将变得更加富有,而穷人不仅信息来源变得有限,陷入“信息茧房”,而且自己的工作岗位还会被人工智能威胁,没有收入来源,生活将会陷入穷苦。

正是出于对种种问题的担忧,在英国的科学技术大会上,很多科学家都提出,“人工智能不受控制”的危险和核武器的危险比,有过之而无不及,所以也应该像核武器一样,对人工智能进行相关的监管。

随着科学技术的发展,人工智能的能力超越人类,是显而易见的事情。如果人工智能不受到监管,利益的驱使下科技公司很容易创造出难以控制却可以产生效益的人工智能,只有建立类似于核武器管理条例的措施,才能更好的使用人工智能,框架的建立是为了我们更好的控制人工智能,更好的生活。

科学家们的担忧有道理,但是就现在的人工智能发展水平来说,人工智能控制人类还仅仅是担忧而已。

在我们走向未来的末日之前,现在的人工智能还是我们的朋友,还在带领我们继续开拓新的世界。过往的经验已经告诉了我们,任何新生事物都是有利有弊的,从最开始的工业革命,到核武器被制造出来,再到现在的人工智能算法进入我们的生活,每一次新事物的研究都是带来发展的同时也带来的问题,我们有理由相信这次也可以取得平衡。

总之,现在的人工智能远比不上人类的复杂,未来的变化也许在每个人的期望之外,也许是坏的,但是也许也是积极的不是吗?希望是美好的结果。那么你认为人工智能该防范吗?未来的人工智能会如何发展?

版权声明:本站所有文章皆是来自互联网,如内容侵权可以联系我们( 微信:bisheco )删除!
友情链接
币圈社群欧易官网