English
本页位置 > 文摘报
《文摘报》
2011-06-18 来源:文摘报   查看评论 进入光明网BBS 手机看新闻

    “机器人三原则”

    上海交通大学机器人研究所最近完成了“助行机器人”的研发。这种像一部“智能小车”的机器人,能自己识别道路,自行确定行驶路线,带着行动困难或视力有障碍的人出行。

    但这款机器人真要实际应用,障碍还很多:它应该遵守什么交通规则?如果它发生了交通事故,该如何处理?上海交大机器人研究所常务副所长曹其新教授说:“这些问号已经让我们纠结了很久。”

    人类创造了机器人,但机器人一旦拥有智能,需要的就不仅仅是维护和修理,更得有规矩约束,要让它的想法和行为合乎人类世界的伦理道德。

    “研究机器人,都知道‘机器人三原则’——不能伤害人类,不能眼看人类将要遇到伤害而袖手旁观;机器人必须服从人的命令,除非这些命令与第一条原则相违背;机器人应该能保护自己,但与前两条原则相违背的情况除外。”德国汉堡大学多模式技术研究所所长张建伟教授告诉记者。

    有智能就复杂了

    随着智能机器人研发不断有新的进展,当机器人也会有想法时,问题就复杂了。

    比如伴侣机器人,当它成为了家庭一员,这些能自主学习、自己成长,能像人一样思考和做决定,而行动能力比人更胜一筹的家伙,需要遵守哪些规矩?机器人的伦理道德,逐渐成为学界关注的热点。

    韩国和一些欧洲国家表示有意制订“机器人道德法”,以此作为机器人研制者、使用者以及机器人本身的道德伦理规范和行为准则;它对机器人产业将有重大指导作用,“机器人道德法”的各项规定将编写成电脑程序,安装于机器人。

    还有科学家提出,人的大脑的某些部分如果损伤,今后可以用芯片修复;如果芯片对人脑原有“部件”的替换率达到一定程度,这样的人该怎么定义?“机器人道德法”对他们是不是也部分适用?

    但愿不要“亡羊补牢”

    中科院微电子研究所所长叶甜春说,就目前的技术水平来说,让机器人自己作伦理道德判断并不可行。现在的技术还只能对机器人发出非常明确的指示,而伦理道德显然是一种复杂判断、模糊判断,机器人还处理不了。

    随着技术快速发展和家用机器人出现,机器人的伦理道德我们必须关注,“千万不能等出问题了,再亡羊补牢”。

    (《文汇报》6.7 姜澎)

页面没有找到
  1. 请检查网址是否正确
  2. 光明网导航
  3. 直接输入要访问的内容进行搜索

[值班总编推荐] AI使用率检测,会增加原创论文么

[值班总编推荐]

[值班总编推荐] 立足中国实际开展农村社会学研究

手机光明网

光明网版权所有

光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

光明网版权所有