當前位置:
首頁 > 知識 > MIT提出生成式壓縮:使用生成式模型高效壓縮圖像與視頻數據

MIT提出生成式壓縮:使用生成式模型高效壓縮圖像與視頻數據

選自arXiv

機器之心編譯

參與:李亞洲

論文地址:https://arxiv.org/abs/1703.01467

摘要

傳統的圖像和視頻壓縮演算法要依賴手動調整的編碼器/解碼器對(多媒體數字信號編解碼器,codecs),缺乏適應性,對被壓縮的數據也不可知。在這篇論文中,我們描述了生成式壓縮的概念,也就是數據的壓縮使用生成式模型。我們也表明這是一個值得追隨的方向,可在圖像和視頻數據上取得更準確的、視覺上更享受的高壓縮重建。我們也證明,相比於傳統的變長度編碼方案,生成式壓縮在比特誤碼率上有更大的復原力(例如,從有雜訊的無線通信頻道)。

圖 1:傳統圖像壓縮對比生成式圖像壓縮

圖 2:圖像的生成式壓縮架構(左圖)與視頻的生成式壓縮架構

圖 3:使用各種壓縮技術進行圖像重建的對比

圖 4:(a) 壓縮圖像真實可信度的驗證 (η=壓縮因子),NCode 與 JPEG、JPEG2000、Toderici et al[6] 方法進行對比,使用在未壓縮圖像上單獨訓練的卷積網路將每個樣本分類到相應的 CIFAR-10 數據集類別中。(b) 每個 NCode 圖像數據集上重建圖像質量的損失(PSNR)用比特誤碼率函數 ε 表示。JPEG PSNR 在 ε ~ 10?4 上的損失大約超過 7dB。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

神經網路基礎:七種網路單元,四種層連接方式
谷歌通過TensorFlow Object Detection API開源其物體識別系統
麥肯錫報告|2016 年人工智慧投資超300億美元,正進入最後突破階段
谷歌開源物體識別系統API

TAG:機器之心 |

您可能感興趣

極端圖像壓縮的生成對抗網路,可生成低碼率的高質量圖像
Google提出新型生成分散式記憶模型,實現以壓縮形式高效存儲信息
學界 | 極端圖像壓縮的生成對抗網路,可生成低碼率的高質量圖像
JPEG圖像「新一代」格式將登場!提升壓縮效率與影像品質
UT-Austin提出新型端到端深度學習編解碼器,用圖像插值壓縮視頻
生命遺傳密碼被成功 「壓縮」
批量圖片壓縮軟體
韓松、李佳等人提出AMC:用於移動端模型自動壓縮與加速的AutoML
體積減半畫質翻倍,他用TensorFlow實現了這個圖像極度壓縮模型
高通工程師獲EPO終身成就獎提名 視頻壓縮基礎性發明改善人們生活
在線完成個性化的圖片壓縮
AutoML自動模型壓縮再升級,MIT韓松團隊利用強化學習全面超越手工調參
MIT工程師設計變色壓縮綁帶 用顏色指代壓力水平
谷歌獲「注視點壓縮」專利,解壓縮VR視場高低敏銳度區域
稀土壓縮機+WiFi配網+低電壓啟動,空調選智能還是傳統?
圖鴨科技完成A輪融資:打造新一代圖像視頻壓縮解決方案
自動模型壓縮與架構搜索,這是飛槳PaddleSlim最全的解讀
資源 | TensorFlow推出模型優化工具包,可將模型壓縮75%
性能增強:運動壓縮長筒襪的優勢
如何在Hive中進行數據壓縮以實現高效存儲?