欢迎光临散文网 会员登陆 & 注册

AI的设定与机智危机的可能猜想

2021-05-16 04:20 作者:GoMiDiSi  | 我要投稿

AI的设定根据前三集得出的

1、每一个AI是独立的个体

    第一集的炸弹,是由布偶说服薇薇去救人,而不是命令或控制包括薇薇在内的其他AI去救。

2、使命每个AI只有一个,也就是说不存在机器人三原则,使命可以被解释延申也可以被曲解。

    让我们回顾一下机器人三原则:

    第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.

    第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

    第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾

    第二条可以被理解为使命。

    布偶的使命是与薇薇一起阻止机智危机发生。根据是第一集12:05、22:33

    重点是这个放任将来会致人死亡的事件发生理由是不能改变未来。根据是第二集20:00

    明显是违背了第一原则对将受到伤害的人类袖手旁观,而使命对应第二原则布偶的行为表明了如果有机器人第三定律那么它的优先级明显是有问题的。在没有证据表明救人会导致机智危机的加速发生下,就放任人的死亡。也就意味着布偶同样会可能做出为了防止机智危机的发生而干掉全人类这种操蛋的操作。只要过的了它的逻辑。

    而说服薇薇去救议员也是薇薇自身对使命的延申解释,救自己的观众。议员有口头上答应去看他的表演。

    矛盾点在于,薇薇有出于非处使命的延申而救人的行为,例如第一集17:22议员垃圾桶炸弹、第二集09:05险些被压死的犯人。若没有三原则,那么薇薇这种行为就是一种利他行为。

    那么机智危机是否就是AI扭曲了自身的使命的一种现象?

    第三集中,布偶催促薇薇干掉艾斯特拉,理由是艾斯特拉将会使太空酒店坠毁并且这是最简单的方法。也就意味着布偶可以凭简单、快速、效率等理由磨洋工,不去探究从根本上解决机智危机产生,只解决会导致机智危机的事件也就是治标不治本。同样也意味着只要事件被判定为就可以扭转,依据也是它的逻辑。这很可怕。

3、AI是会觉醒情感,会为了这种情感自我产生的目的而行动。

    有明确体现的是第三集。在酒店主人去世后,艾斯特拉申请继续经营太空酒店,而她是服务AI只要服务人类在哪都可以,而她的行为更是体现出于对主人的怀念和不希望工作多年的酒店解散。

    接下来就看作者怎么圆设定。起码没有机器人三原则本身就有一定问题,AI们的行为一般都是围绕着使命来的,不做是没有理由,做是因为与符合自身使命的延申。也就是说最高优先度是使命。

    人类是不可能不防止AI们出现对自身使命曲解而危害人类,就像狗咬人反制手段就是狗绳对狗的训练等。出现狗咬人是狗主的不作为和本身就是流浪狗没有人对其负责。AI危害人类,就代表AI的逻辑思考本身的不完善。像是一个人将AI是使命是杀另一个人这种问题该如何防止。

    我到是挺期待作者给出另一种不同与往日科幻的答案。

AI的设定与机智危机的可能猜想的评论 (共 条)

分享到微博请遵守国家法律