在很多的影視劇作品中,我們都曾看到過這樣的場景:案件調查人員通過技術手段,將攝像頭捕捉的模糊圖像放大,形成更為精細、清晰的圖像,幫助識別嫌疑人。然而遺憾的是,現實中的技術還遠達不到能夠將低分辨率圖像“收放自如”形成人眼能夠識別的高清圖像。
但谷歌(微博)近日公布的一項研究成果,則可能讓上述那些只存在于影視劇作品中的“神奇”真正成為現實。谷歌人工智能研究部門谷歌大腦近日發布了一篇研究文章,再度展示了人工智能技術的強大功能,通過對深度神經網絡技術的應用,可以將低分辨率的圖像放大成高清晰度、精細化的人眼可識別圖像。
該項研究具體是通過兩個同時運行的神經網絡來實現,一個被稱為“條件網絡”,另一個被稱為“優先網絡”。“條件網絡”通過對低分辨率的圖像和相似的高分辨率的圖像進行比照,并描繪出粗略的框架。“優先網絡”則用于分析圖像中的像素點,并在低分辨率圖像的基礎上進行細部像素的細化。簡單來說,兩者是通過在宏觀和微觀上的結合,來實現最終結果的最優化。
谷歌人工智能再現“黑科技”:讓低分辨率圖像精細化成像
在進行該項實驗時,谷歌的研究人員運用了包含超過20萬名人頭像的CelebFaces Attributes Dataset數據集和超過300萬圖像的“臥室”照片數據集,通過這些大量的數據,不斷訓練模型,使其結果不斷優化。
經過大量數據訓練后的模型最終能夠實現低分辨率圖像的高清精細化還原,例如在上圖中,將8×8分辨率的圖像輸入后,模型能夠輸出32×32的圖像。可以看出模型繪制出的較高分辨率的圖像與真實圖像之間的差異從肉眼來看已經很難分辨,很大程度上實現了將低分辨率圖像高精細化的目的。
作為實驗效果測驗的一部分,谷歌研究人員還將真實圖像和模型繪制出的圖像同時呈現給其他工作人員,讓他們給出哪些是模型繪制圖像,哪些是真實拍攝的圖像的判斷,測試結果是50%的參與者認為模型繪制出的圖像已經很好地模擬了真實圖像,以至于難以分辨這兩者。
研究人員給出的實驗結論是,在單獨使用“條件網絡”進行繪制圖像時,效果不如在此基礎上同時運用“優先網絡”那么好,“優先網絡”能夠使得“條件網絡”在無法準確預測局部細節時,進一步優化細節,產生更為精細的預測結果。
毫無疑問,這項技術在未來一定有著非常廣泛的應用前景和實際價值,但需要指出的是,目前該技術依然處在非常初期的階段,訓練數據目前僅限于“人臉”和“臥室”圖像,但這實際上也是“有監督學習”的人工智能研究目前普遍所需要面臨的必經階段,即任何實際的人工智能技術的應用,都要基于大量數據的訓練和模型的不斷優化。