“机器人三原则”
上海交通大学机器人研究所最近完成了“助行机器人”的研发。这种像一部“智能小车”的机器人,能自己识别道路,自行确定行驶路线,带着行动困难或视力有障碍的人出行。
但这款机器人真要实际应用,障碍还很多:它应该遵守什么交通规则?如果它发生了交通事故,该如何处理?上海交大机器人研究所常务副所长曹其新教授说:“这些问号已经让我们纠结了很久。”
人类创造了机器人,但机器人一旦拥有智能,需要的就不仅仅是维护和修理,更得有规矩约束,要让它的想法和行为合乎人类世界的伦理道德。
“研究机器人,都知道‘机器人三原则’——不能伤害人类,不能眼看人类将要遇到伤害而袖手旁观;机器人必须服从人的命令,除非这些命令与第一条原则相违背;机器人应该能保护自己,但与前两条原则相违背的情况除外。”德国汉堡大学多模式技术研究所所长张建伟教授告诉记者。
有智能就复杂了
随着智能机器人研发不断有新的进展,当机器人也会有想法时,问题就复杂了。
比如伴侣机器人,当它成为了家庭一员,这些能自主学习、自己成长,能像人一样思考和做决定,而行动能力比人更胜一筹的家伙,需要遵守哪些规矩?机器人的伦理道德,逐渐成为学界关注的热点。
韩国和一些欧洲国家表示有意制订“机器人道德法”,以此作为机器人研制者、使用者以及机器人本身的道德伦理规范和行为准则;它对机器人产业将有重大指导作用,“机器人道德法”的各项规定将编写成电脑程序,安装于机器人。
还有科学家提出,人的大脑的某些部分如果损伤,今后可以用芯片修复;如果芯片对人脑原有“部件”的替换率达到一定程度,这样的人该怎么定义?“机器人道德法”对他们是不是也部分适用?
但愿不要“亡羊补牢”
中科院微电子研究所所长叶甜春说,就目前的技术水平来说,让机器人自己作伦理道德判断并不可行。现在的技术还只能对机器人发出非常明确的指示,而伦理道德显然是一种复杂判断、模糊判断,机器人还处理不了。
随着技术快速发展和家用机器人出现,机器人的伦理道德我们必须关注,“千万不能等出问题了,再亡羊补牢”。
(《文汇报》6.7 姜澎)