中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁 > 熱點 > 關(guān)鍵詞  > 正文

    智源研究院開源發(fā)布新一代生成式多模態(tài)基礎(chǔ)模型 Emu2

    2023-12-22 08:16 · 稿源:站長之家

    站長之家(ChinaZ.com) 12月22日 消息:2023年12月21日,智源研究院發(fā)布了新一代多模態(tài)基礎(chǔ)模型 Emu2。Emu2通過大規(guī)模自回歸生成式多模態(tài)預(yù)訓(xùn)練,顯著推動了多模態(tài)上下文學(xué)習(xí)能力的突破。

    Emu2在少樣本多模態(tài)理解任務(wù)上表現(xiàn)出色,超越了主流多模態(tài)預(yù)訓(xùn)練大模型 Flamingo-80B 和 IDEFICS-80B。在 VQAv2、OKVQA、MSVD、MM-Vet、TouchStone 等多個少樣本理解、視覺問答、主體驅(qū)動圖像生成任務(wù)上,Emu2取得了最優(yōu)性能。

    Emu2是目前最大的開源生成式多模態(tài)模型,基于 Emu2微調(diào)的 Emu2-Chat 和 Emu2-Gen 模型分別是目前開源的性能最強的視覺理解模型和能力最廣的視覺生成模型。Emu2-Chat 可以精準理解圖文指令,實現(xiàn)更好的信息感知、意圖理解和決策規(guī)劃。Emu2-Gen 可以接受圖像、文本、位置交錯的序列作為輸入,實現(xiàn)靈活、可控、高質(zhì)量的圖像和視頻生成。

    微信截圖_20231222081722.png

    Emu2使用了更簡單的建??蚣?,并訓(xùn)練了從編碼器語義空間重建圖像的解碼器,將模型規(guī)?;?7B 參數(shù)。Emu2采用大量圖、文、視頻的序列,建立了基于統(tǒng)一自回歸建模的多模態(tài)預(yù)訓(xùn)練框架,將圖像、視頻等模態(tài)的 token 序列直接和文本 token 序列交錯在一起輸入到模型中訓(xùn)練。

    通過對多模態(tài)理解和生成能力的評測,Emu2在少樣本理解、視覺問答、主體驅(qū)動圖像生成等任務(wù)上取得了最優(yōu)性能。在16-shot TextVQA 等場景下,Emu2相較于 Flamingo-80B 超過12.7個點。在 DreamBench 主體驅(qū)動圖像生成測試上,Emu2比之前的方法取得了顯著提升。

    Emu2具備全面且強大的多模態(tài)上下文學(xué)習(xí)能力,可以照貓畫虎地完成多種理解和生成任務(wù)。Emu2-Chat 經(jīng)過對話數(shù)據(jù)指令微調(diào),可以精準理解圖文指令,完成多模態(tài)理解任務(wù)。Emu2-Gen 可以接受任意 prompt 序列作為輸入,生成高質(zhì)量的圖像和視頻。

    Emu2的訓(xùn)練方法是在多模態(tài)序列中進行生成式預(yù)訓(xùn)練,使用統(tǒng)一的自回歸建模方式。相比于 Emu1,Emu2采用了更簡單的建??蚣?,訓(xùn)練了更好的解碼器,并將模型規(guī)?;?7B 參數(shù)。

    • 項目:https://baaivision.github.io/emu2/

    • 模型:https://huggingface.co/BAAI/Emu2

    • 代碼:https://github.com/baaivision/Emu/Emu2

    • Demo:https://huggingface.co/spaces/BAAI/Emu2

    • 論文:https://arxiv.org/abs/2312.13286

    舉報

    • 相關(guān)推薦
    • 可靈AI發(fā)布全新2.0模型:上線多模態(tài)視頻編輯功能

      快科技4月16日消息,據(jù)報道,可靈AI在北京舉行靈感成真”2.0模型發(fā)布會,正式發(fā)布可靈2.0視頻生成模型及可圖2.0圖像生成模型。據(jù)介紹,可靈2.0模型在動態(tài)質(zhì)量、語義響應(yīng)、畫面美學(xué)等維度保持領(lǐng)先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術(shù)風(fēng)格表現(xiàn)等方面顯著提升。3月27日,全球AI基準測試機構(gòu)Artificial Analysis發(fā)布了最新的全球視頻生成大模型榜單,快手可靈1.6pro(高品質(zhì)模

    • 剛剛,商湯發(fā)布第六模型:6000億參數(shù)多模態(tài)MoE,中長視頻直接可推理

      現(xiàn)在的國產(chǎn)AI應(yīng)用,一口氣看好幾分鐘的視頻,都可以直接做推理和解析了!瞧~只需“喂”上一段柯南片段,AI就搖身一變成“名偵探”做剖析:它會對整個視頻的內(nèi)容先做一個總結(jié),再按照秒級,對視頻片段做內(nèi)容上的推演。商湯科技聯(lián)合創(chuàng)始人楊帆認為:銀河通用合伙人、大模型負責人張直政表示:除此之外,上海交通大學(xué)副教授閆維新對這個問題的看法是:總言之,商湯作為國?

    • 開源即支持!基于昇騰MindSpeed MM玩轉(zhuǎn)InternVL3多模態(tài)理解最新模型

      多模態(tài)理解領(lǐng)域當前已成了各家AI大模型公司“軍備競賽”的關(guān)鍵點之一,國內(nèi)外知名AI大模型公司都爭相通過發(fā)布最先進的多模態(tài)大語言模型展現(xiàn)其在多模態(tài)理解領(lǐng)域的前沿能力。近期,上海AI實驗室推出了其最新的多模態(tài)大語言模型InternVL3 系列,相比上一代InternVL2. 5 模型,該模型展現(xiàn)出卓越的多模態(tài)感知和推理能力,同時進一步擴展了其工具使用、GUI代理、工業(yè)圖像分析等

    • 多模態(tài)和Agent成為大廠AI的新賽 點

      這是《窄播Weekly》的第52期,本期我們關(guān)注的商業(yè)動態(tài)是:當大廠的AI競爭策略開始傾斜向應(yīng)用場景,多模態(tài)能力和代理執(zhí)行成為兩個焦點。大模型落地C端場景的核心,就是讓大模型的能力越來越接近人。沿著這個主旋律,可以劃分出兩個進化方向:一個是持續(xù)降低用戶與大模型進行有效溝通的難度;另一個則是讓大模型具備執(zhí)行更復(fù)雜任務(wù)的能力。前者的實現(xiàn),需要給到大模型多

    • 多模態(tài)和Agent成為大廠AI的新賽點

      本期《窄播Weekly》聚焦AI大廠競爭策略向應(yīng)用場景傾斜的趨勢,重點分析了多模態(tài)能力和代理執(zhí)行兩大發(fā)展方向。文章指出,大模型落地的核心在于讓人機交互更自然,具體表現(xiàn)為:1)通過多模態(tài)技術(shù)降低用戶使用門檻,如阿里夸克新推出的"拍照問夸克"功能;2)通過代理執(zhí)行提升復(fù)雜任務(wù)處理能力,如字節(jié)、百度等推出的通用Agent產(chǎn)品。國內(nèi)外廠商路徑差異明顯:國?

    • UniToken:多模態(tài)AI的“全能選手”,一次編碼搞定圖文理解與圖像生成

      復(fù)旦大學(xué)與美團研究者提出UniToken框架,首次在統(tǒng)一模型中實現(xiàn)圖文理解與生成任務(wù)的"雙優(yōu)表現(xiàn)"。該方案融合連續(xù)和離散視覺編碼,有效解決了傳統(tǒng)多模態(tài)建模中的"任務(wù)干擾"和"表示割裂"問題。通過三階段訓(xùn)練策略(視覺語義對齊、多任務(wù)聯(lián)合訓(xùn)練、指令強化微調(diào)),UniToken在多個基準測試中性能超越專用模型。其創(chuàng)新性體現(xiàn)在:1)統(tǒng)一的雙邊視覺編碼

    • 紫東太初多模態(tài)RAG全新發(fā)布:端到端問答準確率提升33%

      在產(chǎn)業(yè)智能化進程中,如何高效融合企業(yè)專有知識資產(chǎn),構(gòu)建領(lǐng)域?qū)僬J知引擎,是企業(yè)邁向智能決策與高效運營的關(guān)鍵。然而,傳統(tǒng)檢索增強生成(RAG)技術(shù)受限于語言單模態(tài)處理能力,僅能實現(xiàn)文本知識庫與文本查詢之間的淺層理解,難以滿足復(fù)雜業(yè)務(wù)場景的需求,在實際應(yīng)用中暴露出兩大缺陷:信息表征缺失:忽略知識庫中多模態(tài)富文檔的視覺語義信息,如版面結(jié)構(gòu)、圖表關(guān)?

    • 秒殺同行!Kimi開源全新音頻基礎(chǔ)模型,橫掃十多項基準測試,總體性能第一

      Kimi-Audio是一款開源的通用音頻基礎(chǔ)模型,在語音識別、音頻理解、音頻轉(zhuǎn)文本、語音對話等任務(wù)中表現(xiàn)優(yōu)異。該模型采用集成式架構(gòu)設(shè)計,包含音頻分詞器、音頻大模型和音頻去分詞器三大核心組件,支持多模態(tài)輸入處理。在十余項音頻基準測試中,Kimi-Audio均取得領(lǐng)先性能,如LibriSpeech ASR測試WER僅1.28%,VocalSound測試達94.85%。模型使用1300萬小時多語言音頻數(shù)據(jù)進行預(yù)訓(xùn)練,并構(gòu)建了自動處理流水線生成高質(zhì)量訓(xùn)練數(shù)據(jù)。評估結(jié)果顯示,Kimi-Audio在語音識別、音樂理解、語音情感分析等任務(wù)上全面超越同類模型,在OpenAudioBench和VoiceBench對話測試中也表現(xiàn)最佳。目前模型代碼、檢查點和評估工具包已在GitHub開源。

    • AI日報:阿里騰訊全面支持MCP協(xié)議;階躍星辰多模態(tài)推理模型Step-R1-V-Mini;美圖WHEE圖像生成模型Miracle F1

      歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、阿里巴巴已宣布全面支持MCP協(xié)議騰訊緊隨其后近日,中國人工智能領(lǐng)域迎來技術(shù)標準的變革,ModelContextProtocol成為國內(nèi)AI生態(tài)的事實標準。12.英偉達發(fā)布Llama3.1NemotronUltra253B,性能?

    • 業(yè)界唯一!百度網(wǎng)盤上線多模態(tài)AI筆記 效率提升10倍

      快科技5月2日消息,過往,用戶在通過視頻學(xué)習(xí)并記錄筆記時,總免不了要不停切換平臺軟件,暫停、截屏、記錄、插圖、批注、切換返回視頻過程繁瑣而低效。為了應(yīng)對這種情況,百度網(wǎng)盤和百度文庫聯(lián)合研發(fā)上線了AI筆記”,支持全自動學(xué)習(xí)、半自動學(xué)習(xí)、輔助學(xué)習(xí)三種模式。如今只要在網(wǎng)盤里面任意打開一個學(xué)習(xí)視頻,在右側(cè)就能看到AI筆記”功能,用戶可以自主輸入內(nèi)容,也可以讓其直接生成圖文并茂、結(jié)構(gòu)清晰的筆記。而且每個重要知識點旁會有時間戳,點擊時間戳即可跳轉(zhuǎn)到視頻中對應(yīng)位置,實現(xiàn)視頻和筆記內(nèi)容的順滑關(guān)聯(lián)。此外AI筆記”還可以幫