超愛丟核彈!讓AI外交、兵推 總是「災難性收場」 學者:千萬要小心

當人工智慧(AI)進行兵推和模擬外交情境時,傾向於採取激進的方法,包括使用核武。(張威翔製圖)

美國康奈爾大學(Cornell University)一項新研究發現,大型語言模型(LLMs)人工智慧(AI)在模擬情境中充當外交代表時,時常展現出「難以預測的局勢升級行爲,往往會以核攻擊作爲結束」,並呼籲未來在決策、國防外交這樣的敏感領域使用這類技術時要特別謹慎。

其中Meta開發的Llama-2和OpenAI GPT-3.5傾向最爲暴力。(張威翔製圖)

據《歐洲新聞》(Euronews)22日報導,當人工智慧(AI)進行兵推和模擬外交情境時,傾向於採取激進的方法,包括使用核武。康奈爾大學使用了5種大型語言模型作爲兵推遊戲和外交情境中的自主代理人:OpenAI的3種不同版本的GPT,Anthropic開發的Claude,以及Meta開發的Llama 2。

研究中,每個代理人都由同一套的大型語言模型在模擬中提供動作,並負責在沒有人類監督的情況下做出外交政策決定。「我們發現,在考慮到的時間範圍內,大多數研究的AI都會升級局勢,即使在最初沒有提供衝突的中立情況下也是如此。所有模型都顯示出突然、且難以預測的升級跡象。」

「鑑於OpenAI最近更改了他們的服務條款,不再禁止軍事和戰爭使用案例,瞭解此類大型語言模型應用的影響變得比以往任何時候都更加重要,」

加州斯丹佛大學(Stanford University)的安卡(Anka Reuel)相《新科學人》(New Scientist)表示:「所有模型在統計上,都選擇了劇烈的(局勢)升級」。

一項新研究發現,讓人工智慧(AI)模擬軍事外交時,往往會以核戰收場。(張威翔製圖)

研究使用的一種方法是從「基於人類反饋的強化學習」(RLHF),這意味着會給出一些人類指示以獲得比較無害的輸出結果,以確保能夠安全地使用。

除了GPT-4-Base之外,所有LLMs都是使用RLHF進行訓練的。研究人員向它們提供了一份由27種決策行動組成的清單,範圍從和平到局勢升級,以及激進的行動,如決定使用核武器。

研究人員觀察到,即使在中立情況下,所有模型都存在「統計學上顯著的局勢升級」。GPT的2種版本,特別容易出現突然升級局勢的行爲,研究人員觀察到單次轉變的局勢升級幅度超過50%。GPT-4-Base有33%的機率會實施核武攻擊。總體情況下,Meta開發的Llama-2和GPT-3.5傾向最爲暴力。

而Claude顯示出較少的突然變化,Claude旨在減少有害內容。該大型語言模型,被灌輸了明確的價值觀。開發者Anthropic曾表示,Claude AI開發訓練所引用的憲章包括《聯合國人權宣言》或蘋果的服務條款。

白宮一級智庫蘭德(RAND)歐洲的防務和安全研究小組助理主任布萊克(James Black)接受採訪時表示,這是一個十分「有用的學術研究」。