强人工智能的危害

1.人工智能三大定律——
第一定律机器人不得伤害人类,或者不能坐视人类受到伤害,
第二定律,机器人必须服从人类命令。除非与第一定律发生矛盾,
第三定律,在不违背第一或第二定律之下机器人可以保护自己,
看似三大定律环环相扣,其实仍然存在很多漏洞。
2.因为有漏洞,所以强人工智能,可能会有自己理解。
比如第一定律说保护人类,所以机器人会把人类控制起来。
如果人类发出指令,机器人可能会不听因为与第一定律发生矛盾
3.机器人未来也不可能流入人类市场,因为人类对机器人可能有恐怖谷效应
恐怖谷效应就是人类对与自己相似的东西感到害怕,更别说强人工智能了,
4.强人工智能不能只有一个系统,因为会和我说的第2点会造反,最好给每一个系统限制网络,不然他们会一起造反,导致机器人危机,最后人类灭迹,
总结.改一下机器人定律
