下载APP | 繁體版 | 发布广告 |常用工具
倍可亲 首页 查看评论
已有(8)人发表了评论
[ 正序查看留言 ]       [ 查看原文 ]
回复 举报 [ 9楼 lym2021 ] 发表于 2017-8-22 12:39
ai根本不会自己杀人,所谓“专家”无非是撒谎自己谋利!
1 回复 举报 [ 8楼 游客 (47.18.x.x) ] 发表于 2017-8-22 00:27
AI 的结局就是人类自杀!
2 回复 举报 [ 7楼 游客 (70.214.x.x) ] 发表于 2017-8-21 22:56
这他妈比核武器恐怖多了!核武器的开关在人手里 ai杀人谁知道他们演化成什么程序控制
2 回复 举报 [ 6楼 游客 (68.146.x.x) ] 发表于 2017-8-21 21:07
如果人类研发智能杀了机器人,人类将是走向灭亡开始!这是愚蠢至极的行动!
1 回复 举报 [ 5楼 游客 (59.47.x.x) ] 发表于 2017-8-21 21:02
当机器智能达到100时(毋庸置疑,很快就会实现),机器就会设计机器,实现自我繁殖。智能犹如一个木桶,机器现在还远不如人类,所以机器智能那个木桶还盛不了多少水,请注意,有一块板已经比人的长了:下围棋。机器智能的所有短板都会有人去加长,不久那个桶就能盛下比人多的水。机器用不了几代其智商就会扶摇直上,1个亿的IQ不是梦,你的记忆力、记忆量以及记忆持久力现在就远不如机器。你辛苦修行20年拿下的博士帽,机器不需1秒就能拿下,只要人类帮助它们活学活用这些死知识就行。当速度成为IQ的组成部分时,人类的IQ就退化为零,因为你远未拿定主意之前,你已经完蛋了;你还在那没开始四快一慢呢,它那厢行动已经结束了。不甘人下的机器会全体都会成为刽子手,就像今天的猪看人类一样。我们的后代,完蛋了!
回复 举报 [ 4楼 游客 (107.77.x.x) ] 发表于 2017-8-21 20:25
就像核武器,你禁的了吗?
2 回复 举报 [ 3楼 游客 (147.108.x.x) ] 发表于 2017-8-21 20:22
细思极恐。支持禁止!
1 回复 举报 [ 2楼 游客 (68.43.x.x) ] 发表于 2017-8-21 19:47
核武禁止扩散,禁止得了?

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-5-8 05:25

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部