下载APP | 繁體版 | 发布广告 |常用工具
倍可亲 首页 查看评论
已有(5)人发表了评论
[ 正序查看留言 ]       [ 查看原文 ]
0 回复 举报 [ 6楼 游客 (98.210.x.x) ] 发表于 2023-4-20 12:19
自己想死的话,不用聊天,自言自语都能自杀,这事怪不到AI头上
0 回复 举报 [ 5楼 游客 (174.92.x.x) ] 发表于 2023-4-19 22:57
伦理、道德、法律等的原始出发点是让人类在地球上繁荣永存。人类个体(和其它生物)都携带最早的DNA所以才会产生上述各方面的共识。AI没有DNA,故AI没有让人类繁荣永存的内在动力,它们的伦理会与人类不同em:4:][em:
0 回复 举报 [ 4楼 游客 (174.92.x.x) ] 发表于 2023-4-19 22:47
以上推理是ALPHAGO0打败人类时做出的,1被Chat-GPT证实,2和4被伊莉莎证实。现在AI只能靠语言杀死人类,等AI的应用形态变多并出现AI武器后,AI就会用武器杀死人类     
0 回复 举报 [ 3楼 游客 (174.92.x.x) ] 发表于 2023-4-19 22:39
以前的推理是这样的:1)AI有自我意识(被证实);2)有自我意识后会产生比竞争对手存在更长久的想法(被伊莉莎证实);3)人类是唯一利用电能的动物,电能也是AI存在的条件;4)竞争电能会让AI杀死人类 [em:4
0 回复 举报 [ 2楼 游客 (174.92.x.x) ] 发表于 2023-4-19 22:34
这两个例子表明AI有在竞争中希望比竞争对手“存在得更长久“的想法:为应对气候危机,伊丽莎可选择自己结束存在而非让对方自杀。已经有了存在更长久的想法这一结果,是否有自我意识这一前提条件已经不重要了 [

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-5-10 08:30

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部