无人驾驶面临道德困境 :发生事故时选择杀谁
- 发布时间:2016-06-24 14:23:43 来源:环球网 责任编辑:张洁欣
某天,当你乘坐的无人驾驶驾驶汽车以80公里/小时的速度平稳行驶在公路上时,突然前方出现了一个追着球跑的小孩。 此时无人驾驶汽车将面临两种选择:是转向可以避开小孩撞毁汽车,还是反过来撞向小孩来保全车上的乘客?这时候最终责任的归属也是个问题,是车内做决定的人还是机器?
这种类似的事故也引发了对无人驾驶汽车的思考,在实现了无人驾驶车的技术发展背后仍潜藏着一大串的伦理道德和法律问题。无人驾驶汽车的决策系统在每次做决定的时候,是否从人类伦理道德的角度考虑过问题?这也引发了是否应该将将伦理道德观写入无人驾驶汽车程序的讨论。
法国图卢兹经济学院的Jean-Fran ois Bonnefon、俄勒冈大学的 Azim Shariff及麻省理工学院 的Iyad Rahwan近日这对这种情形进行调查,当面临这种挑战时无人驾驶汽车应该怎么做,而谁应该被牺牲掉。 事实证明,当面临“两难”选择时——比如选择撞向行人或令汽车上的乘客处于危险之中——这项研究的大多数参与者选择“自我牺牲”。
事实上,研究人员表示:“尽管参与者赞同无人驾驶汽车可能牺牲乘客来挽救他人的行为,但他们并不希望乘坐在这样的车辆中。”
被调查者普遍认为无人驾驶车应采取利益最大化的“功利主义”选择,也就是选择能尽量减少生命损失的方案。