自動駕駛車該撞小孩或小偷?MIT道德民調測「殘忍度」

▲當自動駕駛面對「道德困境」時,該如何做出「正確決定」?(圖/翻攝自Volvo)

記者張慶輝綜合報導

自動駕駛技術發展至今,科技問題幾乎都能獲得解決,不過「道德困境」這項難題,卻讓各大廠都束手無策,就連Google都傷透腦筋,爲了找到問題的答案,美國麻省理工學院(MIT)近期推出一項小測驗,來調查人們在面對這些問題時,會如何做出決定。

▲MIT透過簡單的「小測驗」,來分析人們如何做出決定。(圖/翻攝自麻省理工學院網站

在這項稱爲「Morel Machine」的測驗中,參與者必須在各種情境下,決定車輛的行進方向,包括遇到行人違規動物穿越道路,行人又可分爲男女老少、人數多寡、以及社經地位高低等主觀條件,無論參與者做出任何決定,都一定會有人犧牲,差別只是車內車外的傷亡。

▲測驗結束後有結果分析,不過MIT強調並非要「批判」個人。(圖/翻攝自麻省理工學院網站)

測驗結束後,會針對參與者的「道德感」,與平均值進行比較,包括是否保護多數生命、傾向保護乘客或行人、是否重視號誌法規、主觀條件影響程度等等,不過MIT也強調,這項測驗並不是要評斷個人,主要是研究「人」如何面對道德困境。