工程師開發AI新應用...將照片中的女性衣物虛擬脫掉 反對者質疑侵犯性隱私

▲DeepNude可將穿着衣服女性照片轉換爲裸體照。(圖/取自deepnude.com)

科技中心綜合報導

幻想過擁有透視眼鏡嗎?現在透過應用程式即可實現。一名工程師近日透過神經網路(neural net)開發出一款名爲DeepNude的應用,只要給它一張女性照片,DeepNude即可自動替照片中的女性「脫衣服」。

科技網站Motherboard報導,DeepNude可將穿着衣服的女性照片轉換爲裸體照,若照片中裸露愈多肌膚,處理的效果愈好。不過值得一提的是,該應用僅適用於女性照片,若對其投入男性照片,DeepNude也會爲其替換成女性的性徵,若使用非人類的照片,如卡通動畫人物等,則會完全扭曲、破壞圖像

目前DeepNude官方網站上線,可直接從官網上免費下載,支援Windows 10或Linux系統。免費版本會在處理過的圖片上放上「Fake Nude」的大片浮水印,也可支付50美元去除浮水印,但處理後的照片左上角仍會有「FAKE」的字樣

▼DeepNude使用方式。(圖/取自deepnude.com)

DeepNude創建者化名Alberto,他表示該應用是基於pix2pix所創建,爲加州大學柏克萊分校研究者於2017年開發的開源算法。Alberto使用超過1萬張女性裸體照片來訓練DeepNude,而目前該應用僅適用於女性的原因在於,女性的裸照在網路上更容易找到,他表示,他日後也希望能創建一個男性的版本。

他指出,一開始他是在舊雜誌上看到了X光眼鏡的廣告,出於趣味及好奇心才創建了這個應用,「大約兩年前,我發現了人工智慧的潛力,並開始研究基礎知識。我發現GAN(Generative Adversarial Networks,生成對抗網路)能將白天的照片轉換成黑夜,我意識到我也可以將一張穿衣的照片轉換成裸照,X光眼鏡是可能的!」他也強調,「我不是偷窺狂,我是技術愛好者。」

對於這款應用,外界大多是感到震驚。DeepNude與去年底利用AI將色情影片主角換臉而轟動一時的「Deepfake」採用的算法相似,Motherboard指出,這種技術很容易就會成爲傷害女性的工具,如在未經女方同意的情況下,擅自使用她的照片,或在網路上惡意散佈這些利用AI製作的「假照片」色情內容。而顯然的,DeepNude採用的技術較Deepfake更先進,操作更簡單、處理也更快。

反報復色情活動組織BADASS創辦人執行長鮑登(Katelyn Bowden)表示,現在任何沒有拍過裸照的人都可能成爲色情報復的受害者,「這樣的技術根本不應該向公衆開放。」馬里蘭大學凱里法學院教授西龍(Danielle Citron)則認爲,DeepNude無疑是在侵犯性隱私,「是的,這不是你真正的私處,但其他人會『認爲』他們看見了你的裸體。」

Motherboard向加州大學柏克萊分校教授、數位鑑識與圖片分析專家法裡德(Hany Farid)展示DeepNude應用時,法裡德也對此感到震驚,「學術界及研究人員不得不以更批判性角度思考如何更好地保護技術的進步,使它們不會被武器化,或以有害的方式被使用。」他也提到,社羣平臺也將不得不更加謹慎地思考如何定義及執行圍繞這些內容的規則,「而且,我們的立法者將不得不考慮如何在這個領域進行深思熟慮的規範。」

更多GAN技術相關報導:

►畫一條線就成瀑布!Nvidia打造最強繪畫AI「GauGAN」隨便畫都超逼真►這個OO不存在!GAN技術正夯 AI造圖網站激增►肉眼已經不可信 AI竟能創造不存在的人臉