C114通信網(wǎng)  |  通信人家園

人工智能
2025/4/24 14:52

英偉達推 DAM-3B 模型:突破局部描述難題,讓 AI 看懂圖像 / 視頻每一個角落

IT之家  故淵

科技媒體 marktechpost 昨日(4 月 23 日)發(fā)布博文,報道稱英偉達為應對圖像和視頻中特定區(qū)域的詳細描述難題,最新推出了 Describe Anything 3B(DAM-3B)AI 模型。

視覺-語言模型(VLMs)在生成整體圖像描述時表現(xiàn)出色,但對特定區(qū)域的細致描述往往力不從心,尤其在視頻中需考慮時間動態(tài),挑戰(zhàn)更大。

英偉達推出的 Describe Anything 3B(DAM-3B)直面這一難題,支持用戶通過點、邊界框、涂鴉或掩碼指定目標區(qū)域,生成精準且貼合上下文的描述文本。DAM-3B 和 DAM-3B-Video 分別適用于靜態(tài)圖像和動態(tài)視頻,模型已在 Hugging Face 平臺公開。

獨特架構與高效設計

DAM-3B 的核心創(chuàng)新在于“焦點提示”和“局部視覺骨干網(wǎng)絡”。

焦點提示技術融合了全圖信息與目標區(qū)域的高分辨率裁剪,確保細節(jié)不失真,同時保留整體背景。

局部視覺骨干網(wǎng)絡則通過嵌入圖像和掩碼輸入,運用門控交叉注意力機制,將全局與局部特征巧妙融合,再傳輸至大語言模型生成描述。

DAM-3B-Video 進一步擴展至視頻領域,通過逐幀編碼區(qū)域掩碼并整合時間信息,即便面對遮擋或運動也能生成準確描述。

數(shù)據(jù)與評估雙管齊下

為解決訓練數(shù)據(jù)匱乏問題,NVIDIA 開發(fā)了 DLC-SDP 半監(jiān)督數(shù)據(jù)生成策略,利用分割數(shù)據(jù)集和未標注的網(wǎng)絡圖像,構建了包含 150 萬局部描述樣本的訓練語料庫。

通過自訓練方法優(yōu)化描述質量,確保輸出文本的高精準度,團隊同時推出 DLC-Bench 評估基準,以屬性級正確性而非僵硬的參考文本對比衡量描述質量。

DAM-3B 在包括 LVIS、Flickr30k Entities 等七項基準測試中領先,平均準確率達 67.3%,超越 GPT-4o 和 VideoRefer 等模型。

DAM-3B 不僅填補了局部描述領域的技術空白,其上下文感知架構和高質量數(shù)據(jù)策略還為無障礙工具、機器人技術及視頻內容分析等領域開辟了新可能。

給作者點贊
0 VS 0
寫得不太好

免責聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關。其原創(chuàng)性以及文中陳述文字和內容未經(jīng)本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機版

      Copyright©1999-2025 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權所有 舉報電話:021-54451141