?12月14日消息,據華中科技大學消息,近日,華中科技大學軟件學院白翔教授領銜的VLRLab團隊發布了多模態大模型——“Monkey”。該模型號稱能夠實現對世界的“觀察”,對圖片進行深入的問答交流和精確描...
12月14日消息,據華中科技大學消息,近日,華中科技大學軟件學院白翔教授領銜的VLRLab團隊發布了多模態大模型——“Monkey”。該模型號稱能夠實現對世界的“觀察”,對圖片進行深入的問答交流和精確描述。
▲圖源Monkey項目的GitHub頁面
IT之家注:多模態大模型是一類可以同時處理和整合多種感知數據(例如文本、圖像、音頻等)的AI架構。
據介紹,Monkey模型在18個數據集上的實驗中表現出色,特別是在圖像描述和視覺問答任務方面,超越了眾多現有知名的模型如微軟的LLAVA、谷歌的PALM-E、阿里的Mplug-owl等。此外,Monkey在文本密集的問答任務中顯示出“顯著的優勢”,甚至在某些樣本上超越了業界公認的領先者——OpenAI的多模態大模型GPT-4V。
Monkey的一個顯著特點是“看圖說話”能力。在詳細描述任務中,Monkey展現了對圖像細節的感知能力,能夠察覺到其他多模態大模型所忽略的內容。如對下圖進行的文本描述中,Monkey正確地將其識別為埃菲爾鐵塔的繪畫,并提供了構圖和配色方案的詳細描述。而對左下角的文字,只有Monkey和GPT-4V能將其準確地識別為作者名。
Monkey號稱能夠利用現有的工具構建一種多層級的描述生成方法,即通過五個步驟依次對圖片進行整體簡述、空間定位、模塊化識別、描述賦分選取和最終總結,此舉可以充分結合不同工具的特性,提升描述的準確性和豐富程度。
“一個個工具就好比不同的零件,合理的排列組合才能使其發揮最大作用,”白翔教授說,“我們團隊從2003年開始便從事圖像識別研究,去年我們又從海外引進了專攻多模態大模型的青年人才,Monkey的最終方案是大家一起反復討論,嘗試了10余種方案后最終確定的。”白翔教授說。
Monkey的另一亮點是能夠處理分辨率最高1344×896像素的圖像,這是目前其他多模態大模型所能處理的最大尺寸的6倍,這意味著Monkey能對更大尺寸的圖片進行更準確、豐富、細致的描述甚至推理。
Monkey多模態大模型代碼目前已在GitHub開源。
來源:本文內容搜集或轉自各大網絡平臺,并已注明來源、出處,如果轉載侵犯您的版權或非授權發布,請聯系小編,我們會及時審核處理。
聲明:江蘇教育黃頁對文中觀點保持中立,對所包含內容的準確性、可靠性或者完整性不提供任何明示或暗示的保證,不對文章觀點負責,僅作分享之用,文章版權及插圖屬于原作者。
Copyright?2013-2024 JSedu114 All Rights Reserved. 江蘇教育信息綜合發布查詢平臺保留所有權利
蘇公網安備32010402000125
蘇ICP備14051488號-3技術支持:南京博盛藍睿網絡科技有限公司
南京思必達教育科技有限公司版權所有 百度統計