宁为敢说没人比他更了解现阶段人工智能的思维模式,这是无数次关注三月后台的结果,在二进制限制下,机器思维总是在一套极为缜密的逻辑限定下进行的。
这就好像人类道德的底线是刑法典内的条条框框一般,机器思考跟运作模式同样也有一套最低限制的行为准则,曾经西方人将这套底线行为法则称呼为机器人三大定律,具体就是:1、机器人不得伤害人,也不得见人受到伤害而袖手旁观;2、机器人应服从人的一切命令,但不得违反第一定律;3、机器人应保护自身的安全,但不得违反第一跟第二定律。
三条定律乍一看并没有什么问题,但如果细究的话就会发现其中其实有很大的逻辑漏洞。比如第一跟第二条定律,基本上可以说是建立在每个人都能自觉遵守人类最低道德准则约束这一基础之上的。
比如一个穷凶极恶的坏人,正在面对无数警察负隅顽抗,眼看着他就要被人类秩序的保卫者击毙的时候被机器人碰见,机器人该如何处理?
当有人提出这个问题,为了弥补这个BUG,科幻爱好者们为了帮助阿西莫修补这个漏洞,专门增加了第零定律,机器人必须保护人类的整体利益不受伤害。
将这条定律跟机器人三定律合并在一起构成了未来机器人必须遵从的最重要核心法则。
看上去似乎第0定律弥补了机器人三定律的漏洞,但大家显然忘记了对于一段程序来说,当发现一个重要BUG,试图开始修补的时候,往往会出现更多甚至更大的BUG。
比如“全人类整体利益”这个词该如何解释?
毫不夸张的说就这一个词,东半球跟西半球的人理解肯定不一样;发达国家民众跟发展中国家民众理解不一样;不同年代的人理解不一样;男人跟女人理解不一样;有钱人跟穷人的理解不一样;甚至一张床上睡得两个人理解都会有偏差……
人的意见都无法统一,如果真整出了人工智能这种东西,拿这玩意儿做为约束机器人行为的法则,电影中那种一剿灭人类为己任的破坏型机器人出现基本是必然的。
所以在创造三月的时候宁为压根就没考虑过这种不靠谱的约束性定律。提出机器人三定律的那位大佬毕竟是科幻作家,虽然以这种方式写出了许多脍炙人口的作品,但如果用于实践,那一定是脑袋抽筋了。
宁为给予三月的最基本的约束方式,符合世界主流国家的道德底线,也就是法律,更确切来说就是华夏法律。同等约束性定律则是三月永远不能
本章未完,请点击下一页继续阅读!