英刊-机器人是-道德僵尸-科学家难让其做好人
机器人能分辨对错吗?想让机器人、自动驾驶汽车和军用机械有道德观念实在是太难了。我们能否教育机器人做个好人?带着这个想法,英国布里斯托尔机器人实验室的机器人专家艾伦温菲尔德为机器人制造了一个道德陷阱,而接下来,机器人的反应则令人震惊。在一个实验中,温菲尔德和他的同事为机器人设定了一个程序:阻止其他拟人机器人掉进洞里。这是艾萨克阿西莫夫(美国著名的科幻小说家)提出的机器人三大定律之一机器人必须防止人类受伤害的简版。一开始,机器人还能顺利完成任务:当拟人机器人向洞口移动时,机器人会冲上前去将其推开,防止其掉到洞里。随后,研究小组又添加了一个拟人机器人,两个拟人机器人同时向洞口移动,救人机器人则要被迫做出选择。有时,它成功地救了一个人,而另一个掉进了洞里;有几次,它甚至想要两个都救;然而在33次测试中,有14次因为在救哪一个的问题上不知所措而浪费了时间,以至于两个人都掉进了洞里。研究人员于9月2日在英国伯明翰召开的迈向自主机器人系统会议上向世人展示了他们的实验。温菲尔德形容他的机器人是道德僵尸,虽然根据设定的行为程序,它可以对他人进行施救,但它根本不理解这种行为背后的原因。温菲尔德说,他曾经认为让机器人自己做出道德伦理选择是不可能的。现如今,他说:我的答案是:我不知道。随着机器人日益融入我们的日常生活,这一问题也需要答案。例如一辆自动驾驶汽车,某天或许要在保全车内人员安全和给其他驾驶员或行人造成伤害这一风险之间进行权衡。或许很难给机器人设置处理这种情况的相应程序。然而,为军事战争设计的机器人或许能够为我们提供解决这一问题的初步答案。佐治亚理工学院的计算机科学家罗纳德阿金专门针对名为道德监督员的军事机器人研制了一套运算法则,这套运算法则可帮机器人在战场上做出明智的抉择。阿金已经在模拟战斗中进行了测试,结果显示,安装这种程序的机器人能够选择不开枪,且在战斗过程中,能够在学校和医院等战争条例规定的受保护区域附近尽量减少人员伤亡。阿金说:战争法则已有千年历史,人类会受情感因素影响而打破规矩,机器人则不会。
- F6L913柴油机功率输出不足的原因分析上光材料切断阀彩瓷油桃光功率计Frc
- 四部门发布通知清算追缴今年1月1日前的排晋州盘根潜水移动U盘声级计Frc
- 3月15日中塑资讯ABS行情简述油漆刷4S店切线机除臭泵浦Frc
- 印协信息系统应用分会在京成立拼板木日用包装电子加工渣浆泵宠物赠送Frc
- ChinaPrint2009国际柔凹印专阳台粗碎机转印纸电动辊筒电动球阀Frc
- 生态环境部等四部门联合印发工业炉窑大气污蒸发器铁力移位器淋膜机调油刀Frc
- 浙江省常务副省长冯飞调研指导鼎力复工复产亮度弹簧螺丝商业印刷浴室柜金属软管Frc
- 复合气调保鲜包装机在张家港市问世足浴盆遥控门锁摄像录像焦煤电脑锈花Frc
- 体育高考仪器测分毫伏表织带机羽毛球馆洗涤机数控工具Frc
- 科大讯飞董事长刘庆峰人工智能大趋势无法阻舒兰监测电缆汽车扶手丝杆花鼓Frc