著名物理学家史蒂芬·霍金在讨论约翰尼·德普主演的新片《超验骇客》时称,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。他的意思是:人工智能可能会导致人类的灭亡。

当你为人工智能技术的飞速发展而欢呼雀跃的时候,你是否想过这可能并不是一件好事?
在观看了德普主演的新片《超验骇客》后,霍金在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。
霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook。他说:“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”
不管从短期还是长期角度来说,人工智能都存在着巨大的潜在风险。实际上,霍金似乎根本就不信任所谓的人工智能专家。
他说:“未来可能出现的情况到底是好是坏完全是无法预料的,面对这种情况,专家们肯定会尽一切可能去保证得到最好的结果,对吗?错!如果有一个优越的外星文明给我们发来一条信息说:‘我们将在几十年之后到达地球,’我们是否应该回答说:‘好的,当你到达地球的时候请通知一下我们,我们将给你留门’?我们可能不会那么做,但是如果人工智能技术继续发展下去,差不多就会出现那样的情况。”
实际上,坚持技术发展似乎可以消除或避免最终产品可能对人类构成的威胁。无人汽车就是个很好的例子。工程师们似乎并不关心人们在开车的过程中获得的乐趣。
霍金承认,机器人和其他的人工智能设备也许会给人类带来巨大的好处。如果那些设备的设计非常成功,就能给人类带来巨大的好处,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。
实际上,人类在考核人工智能技术的潜在风险和收益方面所做的研究工作太少。霍金对此表示担忧和哀叹。他说:“人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。”
霍金以前就曾试图提醒人们注意一点,即科幻的魅力会蒙蔽我们的双眼。它有时会掩盖住一个重要的问题,即最终的结果有可能引发一场浩劫。他曾经说过,外星文明可能会憎恨地球文明。
人类有一种自恋的倾向,盲目相信自己很聪明而从不考虑事情有时可能会出错。或许正如霍金所说的那样,科技行业应该更多地把关注的焦点放在未雨绸缪上面。
筑梦网络
![2022[剧情][世界末日 Armageddon Time]百度云高清下载](https://i3.wp.com/img.zhumengwl.com/uploads/large/68fe562egy1h8jxvnb3d0j212e1kvn88.jpg?resize=220,150)




![2025[动作/科幻/惊悚][梅根 2.0/M3GAN 2.0]高清资源网盘下载](https://i3.wp.com/image.tmdb.org/t/p/w600_and_h900_bestv2//pbliRGYU789feREYhXknSJAqbp2.jpg?resize=220,150)

![2020[纪录][狂野地球/A Wild Year on Earth]4K超清资源网盘下载](https://i3.wp.com/image.tmdb.org/t/p/w600_and_h900_bestv2//nWCGHRxxjSUf1SJ1oFM704WAYwD.jpg?resize=220,150)

![2025[悬疑/剧情][鱿鱼游戏3/Squid Game 3]第三季全集高清资源网盘下载](https://i3.wp.com/q3.itc.cn/images01/20250131/9457bf8c319b4c44af0b5cfd287d2d3f.jpeg?resize=220,150)





