協助研發AI殺人武器? 科技倫理與谷歌員工的認同危機

科技發展是爲人所用,但是利用科技更有效的殺人是否合乎科學倫理圖文/鏡週刊

科技龍頭谷歌的人工智慧(artificial intelligence,AI)部門,去年取得一項美國國防部的重要合約。不過,據《紐約時報報導,這個合約卻引發谷歌內部員工的激烈辯論,甚至有多名工程師辭職抗議

李飛飛是美國乃至全世界AI領域最閃亮的明星。目前她身兼史丹佛大學AI實驗室主任、和谷歌雲(Google Cloud)的首席AI科學家。

不過,去年九月,當谷歌的主管們討論如何對外說明公司與美國國防部第一份重大的AI合約時,她強力建議公司,「AI」這個字眼威力太強大,最好提都不要提。

據紐約時報的報導,她寫給公司同仁電郵中寫道:「要不計一切代價,避免提到與AI相關的字眼。. . . 武器化的AI可能是AI領域之中最敏感的一個主題. . .它是媒體眼中的肥羊,媒體會找到各種方法用它來傷害谷歌。」

李飛飛對谷歌與軍方合作戒慎小心顯然有先見之明。按照紐約時報的形容,谷歌取得五角大廈的合約之後,已經引發了內部一場「認同危機」(identity crisis)。

這項名爲「行家計劃」(Maven program)的專案,內容是藉助谷歌人工智慧的技術,來解讀影片的圖像,並可藉以來提升無人機空襲時鎖定目標的能力。

這個合約引發谷歌的熱烈討論和內部裂痕,部分員工更因此求去。同時也凸顯了公司倫理考量業務發展之間的衝突。

網路媒體Gizmodo的報導,爲了這起爭議,谷歌內部四千多名員工發起聯署信聯署,反對AI做爲軍事與偵查用途,要求「清楚的政策宣示,承諾谷歌和它的合約商都不會發展戰爭科技。」

此外,大約有十幾名谷歌員工並因此辭職抗議。其中一位工程師在離職前還發動請願,要把一間會議室改名爲「克拉拉・伊梅瓦爾」(Clara Immerwahr)——在1915年不滿德國軍方發展毒氣而自殺抗議的德國化學家。在谷歌的紐約辦公室,則出現了「做正確的事」(Do the Right Thing)的貼紙。

與軍方合作帶來的內部反彈以及公關負面效應,應該早就在谷歌高層的預期之內。不過,另有一部分贊成這項合作的人則認爲,在對手如微軟和亞馬遜都積極爭取美國國防部肥厚合約的時刻,這類的合約攸關公司業務的成長,同時也沒有感到羞恥的必要。

美國國防部長馬蒂斯在去年八月參觀了谷歌總部(在這之前也拜訪了亞馬遜),透過媒體強力放送,宣傳軍方將與科技公司更密切的合作。

在其他國家中國,科技業與政府合作或許並不是選項,而是爲求生存的義務。而在美國,公司該不該「配合」國家政策的需要或許有比較大的討論空間。不過,這畢竟有違谷歌向來所標榜的自我形象。

谷歌有所謂「不爲惡」(don't be evil)的公司訓,公司創辦人拉瑞佩吉解釋是「爲我們的用戶、爲我們的消費者、爲所有的人做我們所知道的最好的事」。而「行家計劃」卻可能成爲協助無人機成爲更好的殺人武器。

公司在最初高層的討論時,據稱許多人的建議都是「聽聽李飛飛的意見」。李飛飛是中國出生,16歲才歲父母親到美國的第一代移民,從原本不識英文,到如今坐上了人工智慧領域的第一把交椅

李飛飛當時迴應說,最後的決定權應該交給她的老闆,谷歌雲平臺(Google Cloud Platform)的主管葛林。不過她也建議公關宣傳「必須非常小心」,角度最好集中在谷歌雲平臺,淡化AI的焦點。她還提到自己曾公開在媒體上談論「人性的AI」的主題。她擔心媒體的報導角度會鎖定谷歌正秘密爲國防工業打造AI武器。李飛飛稍後在公開的聲明中說:「我相信以人爲中心的AI可用正面方式造福人類。任何把AI武器化的計劃都嚴重違反我的原則。」

事實上,谷歌的確沒有大肆宣傳「行家計劃」。谷歌成爲美國國防部合約商的新聞,一直要到公司內部反對和抗議出走的聲浪出現後,才引起了媒體和一般大衆的注意。

應用AI技術到國防似乎是不可避免的的趨勢。有人努力自圓其說,主張無人機影像精準的分析,可以更有效找尋和辨識出恐怖份子有助減少無辜平民的傷亡。況且,就算谷歌退出合作,美國國防部頂多是換人合作,決計不可能放棄AI領域的研發。特別是如今中國和其他先進國家正競相投入AI國防產業。

李飛飛建議谷歌「不計一切代價,避免談AI這個字眼」,等於暫時閃避了AI和殺人之間的爭議。不過現實上是,國防工業越來越仰賴AI的技術,這在未來必定會對谷歌「利他、不爲惡」的理念,不斷帶來新的挑戰

參考資料:New York Times,Gizmodo,Verge

更多鏡週刊報導殺一人和殺千人無差別? 世經論壇報告:小心AI武器競賽釀人類災害挑戰矽谷霸主地位 中國發雄心:2030年成全球AI龍頭(之一)挑戰矽谷霸主地位 中國發雄心:2030年成全球AI龍頭(之二)