(資料圖)
天風(fēng)證券(601162)發(fā)布研究報告稱,Meta發(fā)布SAM智能摳圖,可以用于識別圖像和視頻中的物體,甚至是人工智能從未被訓(xùn)練過的物品。利用類NLP技術(shù)路線,完成CV底層技術(shù)突破,并且具有廣泛的通用性。SAM作為開源且更通用AI系統(tǒng)的強(qiáng)大組件,賦能工業(yè)、煤礦、電力、自動駕駛、安防監(jiān)控等多場景。關(guān)注視覺領(lǐng)域技術(shù)型公司、多模態(tài)公司,此外,關(guān)注煤礦、電力、自動駕駛等工業(yè)應(yīng)用類公司。
投資建議:關(guān)注視覺領(lǐng)域技術(shù)型公司、多模態(tài)公司:關(guān)注虹軟科技(688088)(688088.SH)、當(dāng)虹科技(688039.SH)、萬興科技(300624)(300624.SZ)、千方科技(002373)(002373.SZ)、佳都科技(600728)(600728.SH)等;關(guān)注煤礦、電力、自動駕駛等工業(yè)應(yīng)用類公司:關(guān)注云鼎科技(000409.SZ)、智洋創(chuàng)新(688191.SH)、北路智控(301195.SZ)、梅安森(300275)(300275.SZ)等。
天風(fēng)證券主要觀點(diǎn)如下:
Meta發(fā)布SAM智能摳圖,CV領(lǐng)域或迎來顛覆式技術(shù)創(chuàng)新
Meta研究部門發(fā)布了一篇名為其“SegmentAnything”的論文,文中介紹了一個全新的SegmentAnythingModel(SAM),可以用于識別圖像和視頻中的物體,甚至是人工智能從未被訓(xùn)練過的物品。利用類NLP技術(shù)路線,完成CV底層技術(shù)突破,并且具有廣泛的通用性,足以涵蓋各種用例,不需額外訓(xùn)練就可開箱即用地用于新的圖像領(lǐng)域,并具備零樣本遷移的能力。
Meta同時發(fā)布了迄今為止最大的分割數(shù)據(jù)集SA-1B,由1100萬張圖像及11億個掩碼組成
該數(shù)據(jù)集由1100萬張多樣化、高分辨率、保護(hù)隱私的圖像,以及11億個高質(zhì)量分割掩碼組成。SAM模型收集新的分割掩碼速度較以往任何時候都要快,交互式標(biāo)注一個掩碼只需要大約14秒。與以前的大規(guī)模分割數(shù)據(jù)收集工作相比,SAM模型比COCO完全手動的基于多邊形的掩碼標(biāo)注快6.5倍,比以前最大的數(shù)據(jù)標(biāo)注工作快2倍。此外,SA-1B比任何現(xiàn)有的分割數(shù)據(jù)集多出400倍的掩碼。并且通過研究證實(shí),這些掩碼具有高質(zhì)量和多樣性。
SAM作為開源且更通用AI系統(tǒng)的強(qiáng)大組件,賦能工業(yè)、煤礦、電力、自動駕駛、安防監(jiān)控等多場景
與專門為一組固定任務(wù)訓(xùn)練的系統(tǒng)相比,基于prompt工程等技術(shù)的可組合系統(tǒng)設(shè)計將支持更廣泛的應(yīng)用,可以預(yù)計,在未來,在任何需要在圖像中查找和分割對象的應(yīng)用中,都有SAM的用武之地。SAM可以成為AR、VR、內(nèi)容創(chuàng)建、科學(xué)領(lǐng)域和更通用AI系統(tǒng)的強(qiáng)大組件。
風(fēng)險提示:CV技術(shù)發(fā)展不及預(yù)期;應(yīng)用落地不及預(yù)期;國內(nèi)技術(shù)跟進(jìn)不及預(yù)期;行業(yè)競爭加劇。
關(guān)鍵詞: