傷1人或傷5人 自動駕駛的「道德困境」Google也無解

▲雖然已經有業者搶先推出自動駕駛載客服務,但還有一大難題尚未解決。(圖/達志影像美聯社

記者張慶輝綜合報導

自動駕駛技術發展至今,科技難題已經一題一題被破解,甚至有業者搶先推出無人車載客服務,正當看似迎向美好未來時,其實還有一大難題急需尋找解答,而且就連Google都還沒有明確答案,那就是「道德困境」。

▲即使在自動駕駛領域耕耘已久的Google,目前也沒有找到正確答案。(圖/達志影像/美聯社)

所謂道德困境,指的是類似於「兩權相害取其輕」的情況,最經典例子,就是火車行駛在正線上,即將撞上前方的五個孩子,而在廢棄的支線上,只有一個孩子,這樣的難題就連人類都很難取捨,更何況是沒有「道德感」的電腦

▲如果必須要犧牲車上乘客,來挽救多數人的生命,這時電腦會如何選擇?(圖/翻攝自Mercedes-Benz)

Google的技術總監Ray Kurzweil近期在演講中,明確表示這個問題目前沒有答案,如果只是告訴電腦「不能殺人」,這樣的規則也太過簡單,如果導入Isaac Asimov所提出的「機器人法則」,也就是機器人不得傷害人類、也不能不作爲使人類受傷害;必須服從命令,除非違背第一條法則;在不違背前兩項法則下,機器人須保護自己,儘管有三法則的約束,也不代表電腦的「道德品性」能符合期望。

▲早就有科學家提出「機器人三法則」,但似乎還是無法解決這道難題。(圖/翻攝自Volvo)

首席工程師Andrew Chatham也提到,當電腦遭遇兩難選擇時,目前的做法就是「踩煞車」,但他也坦承,這不會是永遠的正確答案,當踩煞車都不足以解決問題時,那當下的情況肯定相當極端,只是在路上行車時,極端的情況總是經常發生。

▲自動駕駛的科技已經成熟,就剩「道德困境」亟需尋求解答。(圖/翻攝自Ford)

爲了解決這個難題,美國麻省理工學院近期展開一向調查,要分析人們在面對道德困境時,會做出什麼樣的選擇,藉此讓電腦學習如何進行判斷,只是多久後才能實用化,目前還沒有時間表