多模態大模型(MLLMs)雖然在圖像理解、視頻分析上表現出色,但多停留在整體場景級理解。
而場景級理解 ≠ 視覺理解的終點,現實任務(如自動駕駛、機器人、醫療影像、視頻分析)需要的是細粒度、對象級(object-level)詳細理解。
然而,當下的研究工作,如英偉達的Describe Anything Model (DAM)局限于單個物體的描述,難以深入理解多對象屬性、交互關系及其時序演變,且犧牲了模型本身的通用理解能力。
針對這一問題,浙江大學、達摩院、香港理工大學聯合提出了一種創新的解決方案PixelRefer:一個統一的時空像素級區域級理解框架,可實現任意粒度下的精細視覺指代與推理,在多項像素級細粒度理解任務取得領先性能表現。和DAM-3B相比,輕量版的2B模型推理時間加快了4倍,顯存占用減半,且訓練數據量大大少于已有方法。

PixelRefer能夠對任意目標實現準確語義理解以及時空物體區域理解。
