面对社会困境,有没有一个社会能够长期接受的选择。
电车难题:电车失控,转向要伤人,不转向也要伤人,如果你是司机,该作何选择?考虑以上状况,你应该拉拉杆吗?
机器人三定律
行人横穿马路,刹车来不及,如果不转向,会撞死行人;如果转向,乘客会死于翻车。自动驾驶汽车应该作何选择?
科幻小说大师阿西莫夫提出影响力极大的机器人三定律。
第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;
第二定律:除非违背第一定律,否则机器人必须服从人类的命令;
第三定律:在不违背第一及第二定律下,机器人必须保护自己。
可以把第零定律理解为要机器人的选择与人类的最大整体利益相符。
你想要什么样的道德算法
首先,你得了解自己到底想要的是什么。
面对着自动汽车,假设你是乘客,你希望自动汽车牺牲谁拯救谁?
我的推荐我先测,于是知道了我自己的偏好:
孩子重于老人,胖瘦男女对我完全没差别;
多个人重于一个人,不论是什么人;
人重于动物,遇到撞人还是撞狗,永远选择撞狗;
如果转向不转向都撞到同样多人,那就不转向;
如果转向的后果是我自己完蛋,那就绝不转向。
摆脱“新电车难题”的困境
第一个摆脱困境的思路来自人工智能专家。
第二个思路是寻找与困境并存的策略。
在《悲剧性选择》中,卡拉布雷斯说, 社会分配悲剧有四个策略:市场、政府、摇号、惯例,但没有哪个能长期维持分配的稳定性。
1. 市场化分配是分散决策,价高者得。
2. 政治分配的好处是较能反映民意,如果政治力量的对比产生自选票的话。
3. 抽签把一切交给运气,看上去是绝对平等,但抹杀了被社会珍视的另外一些平等观。
4.社会也用惯例、习俗、文化来掩盖对悲剧的分配,比如印度留存至今的种姓制度。
参考资料:
卡拉布雷西《悲剧性选择》