《國際產業》「超智慧」即將誕生? 憂人類滅絕 OpenAI將創建AI糾察隊

OpenAI共同創辦人Ilya Sutskever及「AI對齊」(AI Alignment)團隊負責人Jan Leikeklg在部落格發文表示,「超智慧」(superintelligence)的巨大力量可能導致人類喪失權能,甚至導致人類滅絕。目前我們還沒有一個解決方案來引導或控制可能出現的「超智慧」AI,並防止它失控。

他們在文章中做出預測,稱比人類更聰明的「超智慧」AI可能會在這個10年間誕生。人類需要擁有比目前更好的技術纔有能力控制「超智慧」AI,因此在所謂的「AI對齊」研究方面必須取得突破。 「AI 對齊」指的是讓AI系統的目標、價值觀與行爲符合人類社會的期望,其研究重點在於確保AI對人類有益而無害。

文章中指出,由微軟支持的OpenAI將在未來4年投入其20%的運算能力來解決這個問題。此外,該公司將組建一個名爲「Superalignment」的新團隊來落實這項工作。

這個新團隊的目標是創建一個「人類級別」的AI對齊研究員,並透過大量的運算能力來擴展其能力。

OpenAI表示,這意味着他們將使用人類的反饋來訓練AI系統,然後訓練AI糸統來輔助人類的評估工作,最終目標是讓AI系統自己進行對齊研究。

致力於推動AI安全的專家Connor Leahy表示,這項計劃存在根本上的缺陷,因爲最初的人類級AI在可以被要求解決AI安全問題之前,就可能失控並造成災難,「在建構人類級的AI系統之前,你必須先解決『對齊』問題,否則就是默認你無法控制它。我個人並不認爲這是一個特別好或特別安全的計劃」。

AI可能帶來的危險一直是該領域研究人員與一般大衆最關心的問題。今年4月,一羣相關領域的產業領袖與專家發表聯名公開信,以危及人類社會爲由,呼籲暫停開發比OpenAI最新AI模型「GPT-4」更強大的系統6個月。根據路透社/Ipsos在5月份所做的民調,超過三分之二受訪的美國人擔心AI可能帶來負面影響,而61%的人認爲AI可能對人類文明造成威脅。