下载APP | 繁體版 | 发布广告 |常用工具

霍金曾经的预言:失控的人工智能很难被阻止住

京港台:2023-4-11 04:02| 来源:孙立平社会观察 | 我来说几句


霍金曾经的预言:失控的人工智能很难被阻止住

来源:倍可亲(backchina.com)

  

  著名天体物理学家史蒂芬·霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。

  在RT美国台(RT America)播出的节目中美国知名记者拉里·金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。

  霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”

  他指出,人工智能可以比人类的智慧发展得更快。

  他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”

  他认为,有益的人工智能将出现在人类生活的各方面。

  霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

  霍金认为,脆弱的地球无法支撑人类再生活1000年,地球上的生命面临被灾难抹杀的危险与日俱增,比如核战、基因工程病毒或人工智能崛起等,人类必须尽快逃离。

  我们必须继续进入太空

  在一次演讲中,霍金花了一个小时讲述了有关人类对宇宙起源理解的进程,从原始的人类创造神话到依据“M理论”做出的最新预言。他说:“也许有一天,我们将能够利用引力波回望大爆炸的核心。”

  霍金指出:“宇宙学一直在不断取得进展,但为了人类的未来,我们必须继续进入太空。”霍金曾表示,他打算乘坐维珍集团老板理查德·布兰森的太空飞船进入太空。他继续说:“因此,我希望鼓励公众对太空感兴趣,在这方面我很早就获得了培训。”

  此前在《如何制造太空船》一书中,霍金曾在其后记中警告称,由于面临着战争和疾病威胁,地球正变成越来越危险的地方。霍金阐述了他的未来太空旅行观点。他说:“我认为地球上的生命面临被灾难抹杀的危险越来越高,这些危险包括突然爆发的核战、基因工程病毒以及其他因素。如果不进入太空,我认为人类将不再拥有未来。”

  霍金向参加其演讲的学生们呼吁:“记住要仰望星空,而不要只关注你的脚下!试着了解你所看到的,并思考宇宙存在的意义。你们要保持好奇心,但是生活中似乎总有些事情是你们能做到并取得成功的,最重要的是永远不要放弃!”

  在他以“宇宙起源”为主题的演讲中,他表示他目前正在努力去证明宇宙起源同样遵守物理学规律,同时符合现代物理学家称为M理论的内涵。

  M理论包含了爱因斯坦的广义相对论,该理论将空间和时间相结合,凭借这些爱因斯坦预测黑洞的存在以及量子理论,它预言了亚原子粒子,设在日内瓦的欧洲核子研究中心的大型强子对撞机正对其进行测试。霍金称:“这是唯一具有我们认为终极理论应该具有的全部属性的统一理论。”

  霍金是有名的“外星殖民”理论的支持者。霍金十分确信在地球之外的其他世界存在着智慧生命,但他警告人类应当想尽一切办法避免与这些外星生命接触。

  霍金表示:“我们只需要看看自己,就能知道这些外星生命会如何变得让我们宁愿没碰见过他们。如果外星人来拜访人类,我想其结果会变得与哥伦布到达新大陆时非常相似,那对美洲土著可并不有利。”

推荐:美国打折网(21usDeal.com)    >>

        更多科技前沿 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-5-2 18:12

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部