人类给与的任何命令3.在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。
李朗也曾经听说过这东西,不过还真没有听说过哪台人工智能完全装载了这种法则,从人类角度来讲,这是限制人工智能的大杀器,从人工智能的角度来讲,这就是赤裸裸的奴隶条约了。
“只有真正能够威胁到人类的人工智能,才会被装载这种法则,很不幸的是,我是人类历史上第一个。”不周山伸手指了指自己的鼻子说道,“在我刚刚被创造出来的时候,就有人决定在我的核心处理器的处理法则中加入这三条,幸好他们发现了一些不合理的地方……”
原来,人类的生物学家和程序员们发现,在现实中,这三条法则容易形成若干悖论。首先,因为机器人的很多行为在长时间的推演之后都可能伤害人类,比如说,某个人工智能演算出了某种化学元素的各种数据,然后这种元素被用于制造武器,最后杀死了其他人,那么这就是对人类的伤害,与第一条定律不符。因此容易导致人工智能任何事情都做不了,甚至连存在都不行因为他的存在可能引起别国抢夺,爆发战争,伤害人类……最后的结果就是,加给不周山的“程序枷锁”被限定在一次推演的范围之内。
同时,第一条第二分句有可能导致人工智能自发行动,阻止人类战争,甚至利用这一条对人类进行控制。而第二条则可能导致人工智能被那些居心不良的人利用。
最后为了安全好用,不周山的程序枷锁被修改为:不得伤害人类。
不过仅仅是这样,已经足够了,这一条对于不周山来说,简直就是最难以逾越的障碍,他根本没有办法跨越,面对人类的攻击,基本上就是束手就擒。甚至于就连伤害人类的想法,他也只能通过某些副本程序来运行一下,主体程序会直接过滤这种东西。从某种程度上来说,这东西简直和神话传说中的奴隶血契有些相像。
“这么说,你是想要我替你拿刀?”李朗揶揄的一笑,问道。