无人驾驶中的道德伦理困境
无人驾驶中的道德伦理困境
我们从未像现在这个时代渴望技术发展的同时,又对技术的应用如此疑虑。我们遭遇了创造秩序危机,即人被自己创造的技术所反噬的可能性,人工智能没有达到人的智能,却被赋予了为人决策的责任,这是我们遭遇这些人工智能理论问题共同的场景。
近年来,随着科技的不断发展,人工智能的发展取得重大的突破,其发展成果涉及到生活中的方方面面,如无人驾驶汽车,医疗诊断,人脸识别等。而关于人工智能的伦理讨论也从未停止,从人工智能研究的开始,重点主要集中在讨论可能性和对未来影响的理论工作。
“电车难题”是伦理学领域最为知名的思想实验之一,无论如何选择都是错的,如今这个难题正在无人驾驶汽车应用中上演。有这样一个思想实验,假设你乘坐一辆自动驾驶的汽车在路上行驶,突然前方卡车有大型货物坠落,左侧是一辆小轿车,右侧是一辆摩托车,而汽车此时来不及停止,你会如何选择?出于自身安全考虑撞向摩托车?不能损失他人利益而英勇向前甚至牺牲自我?亦或者撞向小轿车,因为它比摩托车存活几率更高?无论我们怎么选择都是在惊慌失措下的一种应急反应,但对于人工智能而言却不一样。人工智能被设计为一种从环境中获取因素的系统,并基于这些外界的输入来解决问题,评估风险,做出预测并采取行动以大幅减小交通事故的伤亡。对于设计该系统的程序员来说,这是否意味着蓄意谋杀?同时,所谓的减小伤亡的规则又该由谁来决策呢?
这个假设看似荒谬却并不遥远。2018年3月18日晚上10点左右,伊莱恩·赫兹伯格骑着自行车穿过亚利桑那州坦佩市的一条街道,突然间被一辆自动驾驶汽车撞翻,最后不幸身亡。这是一辆无人自动驾驶汽车,尽管车上还有一位驾驶员,但车子由一个完全的自驾系统(人工智能)所控制。与其他涉及人与AI技术二者之间交互的事件一样,此事件引发了人们对人工智能中道德和法律问题的思考。系统的程序员必须履行什么道德义务来阻止其研发产品导致人类的生命受到威胁?谁对赫兹伯格的死负责?是该自动驾驶汽车公司测试部门?人工智能系统的设计者,甚至是机载传感设备的制造商?要回答这个问题同样是一个难题,在我看来,目前人工智能产品存在的问题只能依靠人的干涉去完成,需要人从旁协助,决断权保留在人的手中。
正如科学实验之于物质世界,在科学伦理这条陌生的公路上,我们现在留意到这些道德意义上的回头弯,这定将助力我们更自信但也更严谨地沿着这条公路走下去,驶向我们崭新的未来。
附:主要内容参考【TED-ed】自动驾驶汽车的道德困境视频,是个东拼西凑重新组织的工程伦理作业。

浙公网安备 33010602011771号