《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 设计应用 > 基于深度注意力的融合全局和语义特征的图像描述模型
基于深度注意力的融合全局和语义特征的图像描述模型
网络安全与数据治理
及昕浩,彭玉青
(河北工业大学人工智能与数据科学学院,天津300401)
摘要: 现有的图像描述模型使用全局特征时受限于感受野大小相同,而基于对象区域的图像特征缺少背景信息。为此,提出了一种新的语义提取模块提取图像中的语义特征,使用多特征融合模块将全局特征与语义特征进行融合,使得模型同时关注图像的关键对象内容信息和背景信息。并提出基于深度注意力的解码模块,对齐视觉和文本特征以生成更高质量的图像描述语句。所提模型在Microsoft COCO数据集上进行了实验评估,分析结果表明该方法能够明显提升描述的性能,相较于其他先进模型具有竞争力。
中圖分類號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:ADOI: 10.19358/j.issn.2097-1788.2024.02.008
引用格式:及昕浩,彭玉青.基于深度注意力的融合全局和語(yǔ)義特征的圖像描述模型[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2024,43(2):49-53.
Deep attention based image caption model with fusion of global and semantic feature
Ji Xinhao,Peng Yuqing
(School of Artificial Intelligence, Hebei University of Technology, Tianjin 300401,China)
Abstract: Aiming at the problems that existing image caption generation models face limitations when utilizing global features due to the fixed receptive field size, and object region based image features lack background information, an image caption model(DFGS) is proposed. A multifeature fusion module is designed to fuse global and semantic feature, allowing the model to focus on key object and background information in the image. A deep attentionbased decoding module is designed to align visual and textual features, enhancing the generation of higher quality image description statements. Experimental results on MSCOCO dataset show that the proposed model can produce more accurate captions, and is competitive compared with other advanced models.
Key words : image caption; global feature; semantic feature; feature fusion

引言

圖像描述[1-2]是一種使用自然語(yǔ)言描述圖像內(nèi)容的任務(wù),是一項(xiàng)涉及計(jì)算機(jī)視覺領(lǐng)域和自然語(yǔ)言處理領(lǐng)域的跨領(lǐng)域研究?jī)?nèi)容。目前大多數(shù)方法使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)編碼圖像以提取圖像特征,然后使用Transformer網(wǎng)絡(luò)結(jié)構(gòu)來(lái)解析圖像特征并生成描述語(yǔ)句。Pan等人[3]提出了XLinear注意力塊來(lái)捕獲單或多模態(tài)之間的二階相互作用,并將其集成到Transformer編碼器和解碼器中。Cornia等人[4]在Transformer編碼器和解碼器中設(shè)計(jì)了類似網(wǎng)格的連接,以利用編碼器的低級(jí)和高級(jí)特征。多數(shù)研究者針對(duì)Transformer網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),沒有關(guān)注CNN提取到的圖像特征其對(duì)應(yīng)的感受野是均勻的網(wǎng)格,難以明顯地關(guān)注圖像中對(duì)象內(nèi)容信息的問題。此外Transformer模型中的注意力機(jī)制僅僅是隱式地計(jì)算單個(gè)區(qū)域和其他區(qū)域的相似性,無(wú)法捕捉長(zhǎng)距離的關(guān)系。


作者信息:

及昕浩,彭玉青

(河北工業(yè)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津300401)


文章下載地址:http://m.ihrv.cn/resource/share/2000005902


weidian.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。

相關(guān)內(nèi)容