先说所谓的“机器人三定律”:
一.机器人不得伤害人,也不得见人受到伤害而袖手旁观
二.机器人应服从人的一切命令,但不得违反第一定律
三.机器人应保护自身的安全,但不得违反第一、第二定律
后来又补充了机器人零定律:
为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
机器人三定律在阿西莫夫的科幻设定里,是植入到所有机器人软件底层里,不可修改不可忽视的规定。但是显然这不是一个物理定律,所以现实中的机器人并不遵守。大部分人都觉得这只是文学道具而已,但是,1981年,阿西莫夫本人在“Compute.”里说“……有人问,我是不是觉得我的三定律真的可以用来规范机器人的行为——等到机器人的灵活自主程度足以在不同的行为方式中选择一种的时候。我的答案是,‘是的,三定律是理性人类对待机器人——或者任何别的东西——的唯一方式’。”那么。假如阿西莫夫说服了所有人,三定律可能编进机器人里面吗?肯定是可以的。我们完全可以搞一个行业规范,正如电子产品里无数个其它类似的规范一样。问题是,现在研究者一般认为,这三定律不够用也不好用。