@KTzone » 日常 - 新聞時事 » 向假照片宣戰 Adobe 發展鑑識技術


2018-7-13 10:14 宅~有何不可
向假照片宣戰 Adobe 發展鑑識技術

[table]
[tr]
[td]

[img]http://img.sina.com/translate/781/w500h281/20180712/Cbn--hfefkqr0066496.jpg[/img]
Adobe 鑑識系統能辨識出圖片被變造的地方。

[/td]
[/tr]
[/table]
(綜合報導)這個時代假新聞滿天飛,我們通常會說「沒圖沒真相」來當作區辨是否真實的原則,然而連照片、影片也是假的話,那該怎麼辦?尤其現在又有 AI 人工智慧技術,方便、全自動的修圖更是能製造出大量假照片、假影片。相應這個趨勢,知名影像處理軟體開發公司 Adobe 提出瞭抓出假照片的技術方案。Adobe 最近在 CVPR 計算機視覺會議上,展示瞭以機器學習自動辨識出影像是否經過變造的技術,並且一併發表論文。該研究論文並不代表該領域的突破,也還不是商業產品,但很有趣的是,Adobe 這個公司幾乎就是變造影像的代名詞,卻對這種工作有興趣。該公司發言人表示,這個研究專案仍然在早期階段,但在未來,該公司希望在「開發有助於監控和驗證數位媒體真實性的技術」方面發揮貢獻。Adobe 過去從未發表過用於辨識假照片的軟體,這意味著什麼還不是很明確。不過呢,該公司指出已經幫助過執法單位,以數位鑑識技術尋找並且成功找到失蹤兒童,這似乎意謂著該公司對其影像處理技術負起負責的態度。這份嶄新的研究論文展示瞭機器學習如何用於辨識出 3 種常見的影像處理型態:拼接(splicing):將不同圖片的兩部分組合在一起。複製與移動(copy-move):圖片內的區塊被複制和貼到別的部分去。刪除(revomal)?瞭發掘圖片是否被篡改過,數位鑑識專傢通常會在圖片的隱藏圖層尋找線索。當編輯圖片時,會留下數位人工產物,例如圖像感測器隨機產生的顏色和亮度變化(也稱?圖像噪訊)的不一致性。例如將兩個不同的圖像拼接在一起,或者將圖像一部分區塊複製起來貼到另一部分,其背景噪訊會不相容,就好像牆壁上略微不同顏色的污漬。與許多其他機器學習系統一樣,Adobe 也使用含有大量變造過圖片的資料集來訓練人工智慧,從中發現變造圖片的常見模式。這套系統在某些測試中得分高於其他團隊製造的類似系統,但還沒達到遙遙領先的地步。然而,這項研究並未直接應用於以 Deepfake 產生的假影片(Deepfake 是以人工智慧移花接木產生假影片的軟體,之前許多人用來把女明星合成到色情影片演員身上 )。數位鑑識專傢 Hany Farid 表示:「這些新的機器學習方法的好處是有可能發現不明顯且以前未知的?造影像;然而這些方法的缺點是,目前受限於餵給類神經網路的訓練資料,目前還不太可能學習到區辨出陰影、反射幾何形狀的不一致那樣更高級的?造手法。」儘管如此,畢竟是有人在進行更多研究幫助我們發掘假圖,正如許多專傢提醒,我們正走向某種「後真相」(post-truth,註)的世界,連我們看到的影片、照片都不一定可信,我們真的需要新工具來幫助我們明辨真假,水能覆舟亦能載舟。人工智慧讓?造相片更容易瞭,但也可望更能辨識出假照片。

頁: [1]


Powered by Discuz! Archiver 5.5.0  © 2001-2006 Comsenz Inc.