(資料圖)
本報記者 李喬宇
3月14日,商湯科技發(fā)布多模態(tài)多任務(wù)通用大模型“書生(INTERN)2.5”,在多模態(tài)多任務(wù)處理能力方面實(shí)現(xiàn)多項(xiàng)全新突破,其圖文跨模態(tài)開放任務(wù)處理能力可為自動駕駛、機(jī)器人等通用場景任務(wù)提供高效精準(zhǔn)的感知和理解能力支持,向通用人工智能邁出堅(jiān)實(shí)的一步。“書生(INTERN)”最初版本由商湯科技、上海人工智能實(shí)驗(yàn)室、清華大學(xué)、香港中文大學(xué)、上海交通大學(xué)在2021年11月首次共同發(fā)布,并持續(xù)聯(lián)合研發(fā)。
“書生2.5”擁有30億參數(shù),不僅是世界上開源模型中ImageNet準(zhǔn)確度最高、規(guī)模最大的模型,也是物體檢測標(biāo)桿數(shù)據(jù)集COCO中唯一超過65.0mAP的模型。目前,“書生2.5”多模態(tài)通用大模型已在通用視覺開源平臺OpenGVLab開源,為學(xué)術(shù)界和產(chǎn)業(yè)界的多模態(tài)通用模型研發(fā)提供有力支撐。
當(dāng)前,人工智能技術(shù)的發(fā)展正面臨著大量跨模態(tài)任務(wù)的挑戰(zhàn),為滿足快速增長的各式應(yīng)用場景需求,發(fā)展更為通用的人工智能模型已成為科技前沿的核心焦點(diǎn)問題。此次全新發(fā)布的“書生2.5”致力于多模態(tài)多任務(wù)通用模型的構(gòu)建,可接收處理各種不同模態(tài)的輸入,并采用統(tǒng)一的模型架構(gòu)和參數(shù)處理各種不同的任務(wù),促進(jìn)不同模態(tài)和任務(wù)之間在表示學(xué)習(xí)方面的協(xié)作,逐步實(shí)現(xiàn)通用人工智能領(lǐng)域的融會貫通。
“書生2.5”實(shí)現(xiàn)了通過文本來定義任務(wù),從而可以靈活地定義不同場景的任務(wù)需求,并根據(jù)給定視覺圖像和任務(wù)的提示性語句,給出相應(yīng)的指令或作答,進(jìn)而具備通用場景下的高級感知和復(fù)雜問題處理能力,比如圖像描述、視覺問答、視覺推理和文字識別等。
(編輯 張明富)
關(guān)鍵詞: