OpenAI發布安全指南:董事會有權否決執行長發布新款AI模型

OpenAI於18日發佈安全指南指,董事會將有權否決公司領導層推出新版模型的決定。美聯社

開發ChatGPT的人工智慧(AI)公司OpenAI表示,董事會將有權否決公司領導層推出新版模型的決定。

彭博資訊報導,OpenAI於18日在官方網站發佈一份名爲「準備框架(Preparedness Framework)」的安全指南,規定「追蹤、評估、預測和誘發敏感的模型帶來災難性風險的流程」。

該指南是在OpenAI執行長奧特曼(Sam Altman)遭短暫罷免並經歷一波動盪後所發佈,此舉令外界關注到OpenAI董事會與公司高層間的權力之爭。

OpenAI在新聞稿中表示,「準備(Preparedness)團隊」將持續評估人工智慧系統的風險,以瞭解其在四個不同類別中的表現,包括潛在的網路安全問題、化學威脅、核威脅和生物威脅,並努力減少該技術可能造成的任何危害。

具體來說,該公司正在監控所謂的「災難性」風險,在指南中將其定義爲「可能導致數千億美元經濟損失或導致許多人嚴重傷害或死亡的任何風險」。

OpenAI於10月宣佈成立「準備團隊」,是這家公司負責監督人工智慧安全的三個獨立小組之一。另外還有「安全系統」着眼於當前產品,像是GPT-4;以及超級對準(superalignment),重點是未來可能誕生、可能極其強大的人工智慧系統。

麻省理工學院機器學習中心(Center for Deployable Machine Learning)主任馬德里(Aleksander Madry)負責領導該團隊,他表示,他的團隊每個月將向新的內部安全諮詢小組發送報告,該小組將分析馬德里團隊的工作,並向執行長奧特曼以及公司董事會提出建議。

馬德里表示,他的團隊將反覆評估OpenAI最先進的、尚未發佈的人工智慧模型,針對不同類型的知覺風險,將其評爲「低」、「中」、「高」或「嚴重」。該團隊還將做出改變,以減少他們在人工智慧中發現的潛在風險,並衡量其有效性。根據新的安全指南,OpenAI未來只會推出評級爲「中」或「低」的人工智慧模型。

值得注意的是,根據安全指南,奧特曼和他的領導團隊可以根據這些報告決定是否發佈新的人工智慧模型,但董事會有權推翻其決定。

近日,奧特曼和董事會之間的宮斗大戰吸引全世界目光,在這場內鬥落幕之後,董事會已發生巨大改變,同時也引發外界對人工智慧安全的又一次思考。