中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > MUSCATEL最新資訊  > 正文

    ?谷歌發(fā)布時(shí)間感知框架MUSCATEL:圖像識(shí)別準(zhǔn)確率提升15%

    2024-03-01 14:14 · 稿源:站長(zhǎng)之家

    劃重點(diǎn):

    ? 谷歌發(fā)布全新時(shí)間感知框架 MUSCATEL,提升圖像識(shí)別準(zhǔn)確率15%

    ? 概念漂移問(wèn)題長(zhǎng)期困擾機(jī)器學(xué)習(xí)領(lǐng)域,新方法助力模型適應(yīng)易變世界

    ? MUSCATEL 方法結(jié)合離線學(xué)習(xí)與持續(xù)學(xué)習(xí)優(yōu)勢(shì),優(yōu)化模型在未來(lái)數(shù)據(jù)中的表現(xiàn)

    站長(zhǎng)之家(ChinaZ.com)3月1日 消息:谷歌 AI 團(tuán)隊(duì)最近發(fā)布了一項(xiàng)名為 MUSCATEL 的全新時(shí)間感知框架,旨在對(duì)抗概念漂移問(wèn)題,提升圖像識(shí)別準(zhǔn)確率。概念漂移一直是機(jī)器學(xué)習(xí)領(lǐng)域的難題,即數(shù)據(jù)分布隨時(shí)間變化,影響模型持續(xù)有效性。MUSCATEL 方法通過(guò)結(jié)合離線學(xué)習(xí)和持續(xù)學(xué)習(xí)的優(yōu)勢(shì),成功優(yōu)化模型在大型、動(dòng)態(tài)數(shù)據(jù)集中的表現(xiàn)。

    傳統(tǒng)對(duì)抗概念漂移的方法主要是在線學(xué)習(xí)和持續(xù)學(xué)習(xí),但這些方法存在著忽略過(guò)去數(shù)據(jù)有價(jià)值信息和假設(shè)數(shù)據(jù)實(shí)例貢獻(xiàn)均勻衰減的問(wèn)題。MUSCATEL 方法則引入了一個(gè)輔助模型,利用實(shí)例的重要性分配分?jǐn)?shù)來(lái)優(yōu)化模型在未來(lái)實(shí)例中的表現(xiàn),解決了這些核心難題。

    image.png

    研究人員在大型真實(shí)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),涵蓋3900萬(wàn)張照片持續(xù)9年,結(jié)果顯示,相較于其他穩(wěn)態(tài)學(xué)習(xí)基線方法,MUSCATEL 方法的準(zhǔn)確率提升了15%。此外,在兩個(gè)非穩(wěn)態(tài)學(xué)習(xí)數(shù)據(jù)集及持續(xù)學(xué)習(xí)環(huán)境中,MUSCATEL 方法也展現(xiàn)出優(yōu)于目前最優(yōu)方法的效果。

    image.png

    通過(guò)照片分類任務(wù)的比較,研究人員發(fā)現(xiàn),概念漂移對(duì)有監(jiān)督學(xué)習(xí)構(gòu)成挑戰(zhàn),需要持續(xù)更新模型以適應(yīng)數(shù)據(jù)變化。MUSCATEL 方法成功地結(jié)合了離線訓(xùn)練和持續(xù)訓(xùn)練的優(yōu)勢(shì),為模型未來(lái)的表現(xiàn)提供了堅(jiān)實(shí)基礎(chǔ)。

    谷歌發(fā)布的 MUSCATEL 方法為機(jī)器學(xué)習(xí)領(lǐng)域的概念漂移問(wèn)題提供了一種創(chuàng)新的解決方案,為模型在大規(guī)模、動(dòng)態(tài)數(shù)據(jù)集中持續(xù)準(zhǔn)確地進(jìn)行分類提供了新的思路和方法。

    論文地址:https://arxiv.org/abs/2212.05908

    舉報(bào)

    • 相關(guān)推薦
    • 紫東太初多模態(tài)RAG全新發(fā)布:端到端問(wèn)答準(zhǔn)確率提升33%

      在產(chǎn)業(yè)智能化進(jìn)程中,如何高效融合企業(yè)專有知識(shí)資產(chǎn),構(gòu)建領(lǐng)域?qū)僬J(rèn)知引擎,是企業(yè)邁向智能決策與高效運(yùn)營(yíng)的關(guān)鍵。然而,傳統(tǒng)檢索增強(qiáng)生成(RAG)技術(shù)受限于語(yǔ)言單模態(tài)處理能力,僅能實(shí)現(xiàn)文本知識(shí)庫(kù)與文本查詢之間的淺層理解,難以滿足復(fù)雜業(yè)務(wù)場(chǎng)景的需求,在實(shí)際應(yīng)用中暴露出兩大缺陷:信息表征缺失:忽略知識(shí)庫(kù)中多模態(tài)富文檔的視覺(jué)語(yǔ)義信息,如版面結(jié)構(gòu)、圖表關(guān)?

    • 超過(guò)ChatGPT、Deepseek?谷歌發(fā)布 Gemini 2.5 Flash AI 模型

      新版AI模型縮短了響應(yīng)時(shí)間,節(jié)約了運(yùn)算成本;還推出了新的AI芯片“Ironwood”。谷歌發(fā)布了新的AI模型“Gemini2.5Flash”,據(jù)稱,這款A(yù)I模型的性能比OpenAI和DeepSeek的AI產(chǎn)品“更高效”。谷歌計(jì)劃在三星今年上半年推出的AI伴侶機(jī)器人Ballie上搭載生成式AI模型。

    • 字節(jié)發(fā)布豆包1.5深度思考模型:“實(shí)拍級(jí)”圖像生成

      快科技4月17日消息,據(jù)報(bào)道,今日,在火山引擎AI創(chuàng)新巡展杭州站的現(xiàn)場(chǎng),字節(jié)跳動(dòng)旗下火山引擎總裁譚待正式發(fā)布了備受矚目的豆包1.5深度思考模型。譚待指出,豆包1.5深度思考模型在多個(gè)關(guān)鍵領(lǐng)域展現(xiàn)出卓越性能。在數(shù)學(xué)、編程、科學(xué)推理這類專業(yè)領(lǐng)域中,它能夠精準(zhǔn)高效地處理復(fù)雜問(wèn)題;在創(chuàng)意寫作等通用任務(wù)方面,同樣表現(xiàn)出色。該模型采用MoE架構(gòu),總參數(shù)為200B,激?

    • 聯(lián)發(fā)科天璣9400+拿下最強(qiáng)AI手機(jī)芯片:端側(cè)推理準(zhǔn)確率反超云端大模型

      今日,聯(lián)發(fā)科舉辦天璣開發(fā)者大會(huì)2025,正式發(fā)布新一代旗艦芯片天璣9400。天璣9400定位旗艦5G智能體AI芯片,綜合AI跑分是天璣9400的1.25倍,支持最高8B規(guī)模的DeepSeek-R1端測(cè)部署,推理準(zhǔn)確率反超云端大模型。天璣9400采用臺(tái)積電第二代3nm工藝,CPU架構(gòu)延續(xù)創(chuàng)新全大核設(shè)計(jì),包含1顆主頻3.7GHz的Cortex-X925超大核、3顆3.3GHz的Cortex-X4大核與4顆2.4GHz的Cortex-A720大核。

    • AI日?qǐng)?bào):ChatGPT重磅上線圖像庫(kù)功能;白嫖!Veo2登陸谷歌AI Studio;螞蟻百寶箱推“MCP專區(qū)”

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、報(bào)道稱字節(jié)跳動(dòng)整合 AI 研發(fā)團(tuán)隊(duì),AI Lab 即將并入 Seed字節(jié)跳動(dòng)正在進(jìn)行AI研發(fā)團(tuán)隊(duì)的整合,將獨(dú)立的字節(jié)AI Lab并入Seed團(tuán)隊(duì)。這一舉措體現(xiàn)了字節(jié)在AI領(lǐng)域戰(zhàn)略布局的調(diào)整,旨在進(jìn)?

    • 谷歌發(fā)錢讓部分AI員工一年內(nèi)什么都不用做!但不能加入競(jìng)爭(zhēng)對(duì)手

      隨著人工智能領(lǐng)域的競(jìng)爭(zhēng)日益激烈,谷歌旗下的人工智能部門DeepMind采取了一種激進(jìn)”的競(jìng)業(yè)禁止協(xié)議,以防止頂尖人才流向競(jìng)爭(zhēng)對(duì)手。DeepMind對(duì)部分英國(guó)員工實(shí)施了這一協(xié)議,禁止他們?cè)陔x職后一年內(nèi)為競(jìng)爭(zhēng)對(duì)手工作。美國(guó)已于去年禁止了大多數(shù)競(jìng)業(yè)禁止協(xié)議,但該規(guī)定并不適用于DeepMind位于倫敦的總部,谷歌方面表示,其有選擇地”使用競(jìng)業(yè)禁止協(xié)議。

    • 微美全息(WIMI.US)探索量子圖像壓縮算法,引領(lǐng)圖像處理領(lǐng)域顛覆性創(chuàng)新

      量子計(jì)算作為信息技術(shù)領(lǐng)域的顛覆性力量,其在量子圖像處理和圖像壓縮領(lǐng)域也顯示出巨大的技術(shù)潛力。隨著數(shù)字圖像處理技術(shù)的不斷演進(jìn),傳統(tǒng)圖像處理算法,本質(zhì)上依賴于并行計(jì)算,然,隨著圖像數(shù)量和分辨率的快速增長(zhǎng),這些經(jīng)典算法在計(jì)算資源和時(shí)間消耗上存在局限性。量子圖像壓縮技術(shù)的深入研究也將促進(jìn)量子算法和量子信息處理理論的進(jìn)一步發(fā)展,為量子信息技術(shù)的廣泛應(yīng)用奠定堅(jiān)實(shí)基礎(chǔ),推動(dòng)數(shù)字圖像處理技術(shù)邁向新的高度,實(shí)現(xiàn)更高效、更智能的圖像處理和壓縮。

    • UniToken:多模態(tài)AI的“全能選手”,一次編碼搞定文理解與圖像生成

      復(fù)旦大學(xué)與美團(tuán)研究者提出UniToken框架,首次在統(tǒng)一模型中實(shí)現(xiàn)圖文理解與生成任務(wù)的"雙優(yōu)表現(xiàn)"。該方案融合連續(xù)和離散視覺(jué)編碼,有效解決了傳統(tǒng)多模態(tài)建模中的"任務(wù)干擾"和"表示割裂"問(wèn)題。通過(guò)三階段訓(xùn)練策略(視覺(jué)語(yǔ)義對(duì)齊、多任務(wù)聯(lián)合訓(xùn)練、指令強(qiáng)化微調(diào)),UniToken在多個(gè)基準(zhǔn)測(cè)試中性能超越專用模型。其創(chuàng)新性體現(xiàn)在:1)統(tǒng)一的雙邊視覺(jué)編碼

    • 特斯拉“丐版”Cybertruck車型發(fā)布!性能縮水 續(xù)航提升

      特斯拉近日在海外市場(chǎng)推出了Cybertruck長(zhǎng)續(xù)航后輪驅(qū)動(dòng)版車型。新版本的Cybertruck在續(xù)航能力上達(dá)到了563公里,相較于之前發(fā)布的AWD版本提升了40公里,顯著增加了車輛的實(shí)用性和吸引力。隨著特斯拉宣布Cybertruck首次進(jìn)軍中東市場(chǎng),長(zhǎng)續(xù)航后輪驅(qū)動(dòng)版也同步上線當(dāng)?shù)毓倬W(wǎng),成為該車型的全球首發(fā)市場(chǎng),預(yù)計(jì)將于2025年底交付。

    • RTX 5060移動(dòng)版低調(diào)發(fā)布:比桌面版縮水15

      快科技4月16日消息,除了正式發(fā)布桌面版RTX 5060 Ti 16/8GB、RTX 5060 8GB,NVIDIA還同時(shí)低調(diào)發(fā)布了面向筆記本的RTX 5060 Laptop。RTX 5060移動(dòng)版同樣采用GB206芯片,但是CUDA核心數(shù)只有3328個(gè),對(duì)比桌面版少了足足15%。不過(guò),NVIDIA依然很有信心地宣稱,其性能表現(xiàn)和桌面版類似,對(duì)比上代幀率翻番、延遲更低這自然是得靠DLSS 4、Reflex 2技術(shù)的加持。其實(shí)對(duì)比上代RTX 4060移動(dòng)版,它的核心數(shù)只增加了大約8%,符合全系的趨勢(shì),還是挺牙膏的。核心頻率1455-2497MHz,對(duì)比上代基礎(chǔ)頻率還低了15MHz,加速頻率則高了127MHz,當(dāng)然現(xiàn)在GPU的頻