中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > OpenAI最新資訊  > 正文

    剛剛,OpenAI發(fā)布sCM提升50倍效率,擴(kuò)散模型重大技術(shù)突破!

    2024-10-24 08:42 · 稿源: ? AIGC開(kāi)放社區(qū)公眾號(hào)

    今天凌晨,OpenAI發(fā)布了全新擴(kuò)散模型方法sCM,僅需2步就能生成高質(zhì)量圖片、3D模型等實(shí)現(xiàn)50倍時(shí)鐘加速,尤其是在高分辨率任務(wù)上相當(dāng)出色。例如,通過(guò)sCM訓(xùn)練了一個(gè)15億參數(shù)的模型,在單個(gè)A100GPU上無(wú)需任何推理優(yōu)化0.11秒內(nèi)就能生成內(nèi)容。目前,擴(kuò)散模型生成圖片最快的是Stability

    ......

    本文由站長(zhǎng)之家合作伙伴自媒體作者“? AIGC開(kāi)放社區(qū)公眾號(hào)”授權(quán)發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過(guò)平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)查看原文,獲取內(nèi)容詳情。

    舉報(bào)

    • 相關(guān)推薦
    • 剛剛,OpenAI發(fā)布GPT-image-1模型,更強(qiáng)吉卜力版本來(lái)啦

      OpenAI發(fā)布全新圖像生成模型GPT-image-1,通過(guò)API向全球開(kāi)發(fā)者開(kāi)放。該模型支持精細(xì)控制圖像敏感度、生成效率、背景、輸出格式等參數(shù),并集成吉卜力模式。Adobe、Figma等企業(yè)已將其應(yīng)用于產(chǎn)品中。API支持批量生成、蒙版編輯、透明度調(diào)整等高級(jí)功能,圖像生成成本從0.02-0.19美元/張不等。CEO Sam Altman表示該模型與ChatGPT版本差異顯著,開(kāi)發(fā)者可通過(guò)API實(shí)現(xiàn)更多創(chuàng)意場(chǎng)景。新模型在?

    • 剛剛,AI破解50年未解數(shù)學(xué)難題!南大校友用OpenAI模型完成首個(gè)非平凡數(shù)學(xué)證明

      【新智元導(dǎo)讀】AI輔助人類(lèi),完成了首個(gè)非平凡研究數(shù)學(xué)證明,破解了50年未解的數(shù)學(xué)難題!在南大校友的研究中,這個(gè)難題中q=3的情況,由o3-mini-high給出了精確解。就在剛剛,AI完成了首個(gè)非平凡研究數(shù)學(xué)證明!完成這項(xiàng)研究的,是美國(guó)紐約布魯克海文國(guó)家實(shí)驗(yàn)室凝聚態(tài)物理與材料科學(xué)分部的一位華人學(xué)者Weiguo Yin。論文地址:https://arxiv.org/abs/2503.23758在這項(xiàng)研究中,作者在一維J_1-J

    • 為編程而生?OpenAI 發(fā)布 GPT -4.1 系列模型

      OpenAI 表示,GPT-4.1 是為開(kāi)發(fā)者量身定制的……

    • 媲美OpenAI-o3,剛剛開(kāi)源模型DeepCoder,訓(xùn)練方法、數(shù)據(jù)集大公開(kāi)

      今天凌晨4點(diǎn),著名大模型訓(xùn)練平臺(tái)TogetherAI和智能體平臺(tái)Agentica,聯(lián)合開(kāi)源了新模型DeepCoder-14B-Preview。該模型只有140億參數(shù),但在知名代碼測(cè)試平臺(tái)LiveCodeBench的測(cè)試分為60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI剛獲得3.05億美元的B輪融資,其估值也從去年的12.5億美元翻倍至33億美元。

    • 國(guó)產(chǎn)六大推理模型激戰(zhàn)OpenAI?

      2025年春節(jié)前夕,DeepSeek-R1模型發(fā)布,標(biāo)志著中國(guó)AI進(jìn)入推理模型新時(shí)代。文章梳理了國(guó)產(chǎn)大模型發(fā)展歷程:從2022年ChatGPT引發(fā)國(guó)內(nèi)追趕OpenAI熱潮,到2023年"百模大戰(zhàn)",再到2024年"AI六小虎"格局形成。重點(diǎn)分析了六大國(guó)產(chǎn)推理模型(DeepSeek、百度、阿里、科大訊飛、字節(jié)、騰訊)的技術(shù)特點(diǎn)與市場(chǎng)表現(xiàn),指出國(guó)產(chǎn)模型在性能上已接近GPT-4水平。特別強(qiáng)調(diào)科大訊飛星火X1憑借全國(guó)產(chǎn)化技術(shù)路線獲得政企青睞,以及DeepSeek-R1以560萬(wàn)美元超低成本實(shí)現(xiàn)高性能的突破。文章還探討了英偉達(dá)芯片斷供危機(jī)下,國(guó)產(chǎn)全棧技術(shù)路徑的重要性,認(rèn)為自主可控將成為對(duì)抗國(guó)際不確定性的關(guān)鍵。最后指出,隨著推理模型成為競(jìng)爭(zhēng)焦點(diǎn),國(guó)產(chǎn)大模型正從技術(shù)追隨轉(zhuǎn)向自主創(chuàng)新階段。

    • OpenAI沒(méi)說(shuō)的秘密,Meta全揭了?華人一作GPT-4o同款技術(shù),爆打擴(kuò)散王者

      Meta、西北大學(xué)和新加坡國(guó)立大學(xué)的研究團(tuán)隊(duì)提出TokenShuffle技術(shù),顯著提升了自回歸模型生成高分辨率圖像的能力。該技術(shù)通過(guò)局部窗口內(nèi)的token合并與解構(gòu)操作,將視覺(jué)token數(shù)量減少為平方分之一,首次實(shí)現(xiàn)2048×2048分辨率圖像生成?;?7億參數(shù)的Llama模型,TokenShuffle在GenAI基準(zhǔn)測(cè)試中獲得0.77綜合得分,超越同類(lèi)自回歸模型0.18分,在人類(lèi)評(píng)估中展現(xiàn)出更好的文本對(duì)齊和視覺(jué)質(zhì)量。該方法無(wú)需修改Transformer架構(gòu),通過(guò)三階段訓(xùn)練策略(512→1024→2048分辨率)逐步提升生成能力,為多模態(tài)大語(yǔ)言模型的高效高保真圖像生成開(kāi)辟了新路徑。

    • 剛剛,OpenAI發(fā)布GPT-4.1,性能暴漲、100萬(wàn)上下文

      今天凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播發(fā)布了最新模型——GPT-4.1。除了GPT-4.1之外,還有GPT4.1-Mini和GPT4.1-Nano兩款模型,在多模態(tài)處理、代碼能力、指令遵循、成本方面實(shí)現(xiàn)大幅度提升。特別是支持100萬(wàn)token上下文,這對(duì)于金融分析、小說(shuō)寫(xiě)作、教育等領(lǐng)域幫助巨大。由于GPT-4.1的發(fā)布,OpenAI宣布將會(huì)淘汰剛發(fā)布不久的GPT-4.5,其能力可見(jiàn)一斑。目前,如果想體驗(yàn)GPT-4.1而無(wú)法通過(guò)API身?

    • 剛剛OpenAI大更新ChatGPT搜索,周搜索量10億次

      OpenAI對(duì)ChatGPT搜索功能進(jìn)行重大升級(jí),重點(diǎn)優(yōu)化網(wǎng)購(gòu)體驗(yàn)。現(xiàn)在用戶可直接搜索商品并查看價(jià)格、詳情和評(píng)價(jià),還能跳轉(zhuǎn)購(gòu)買(mǎi)鏈接。該功能面向所有用戶開(kāi)放,支持中英文搜索,搜索結(jié)果會(huì)匹配提示詞語(yǔ)言。過(guò)去一周搜索量已超10億次,成為ChatGPT核心功能之一。新功能讓用戶能直接在ChatGPT完成商品比價(jià)和購(gòu)買(mǎi)決策,大幅簡(jiǎn)化網(wǎng)購(gòu)流程。雖然目前主要通過(guò)導(dǎo)流變現(xiàn),但未來(lái)可能拓展更多電商服務(wù)。這次升級(jí)標(biāo)志著ChatGPT正從純聊天工具向多功能平臺(tái)演進(jìn)。

    • 剛剛,OpenAI開(kāi)源BrowseComp,重塑Agent瀏覽器評(píng)測(cè)

      今天凌晨2點(diǎn),OpenAI開(kāi)源了專(zhuān)門(mén)用于智能體瀏覽器功能的測(cè)試基準(zhǔn)——BrowseComp。這個(gè)測(cè)試基準(zhǔn)非常有難度,連OpenAI自己的GPT-4o、GPT-4.5準(zhǔn)確率只有0.6%和0.9%幾乎為0,即便使用帶瀏覽器功能的GPT-4o也只有1.9%。通過(guò)使用更多的計(jì)算資源,模型可以嘗試更多的搜索路徑,從提高找到正確答案的概率。

    • OpenAI發(fā)布o3、o4 mini模型,實(shí)現(xiàn)“看圖說(shuō)話”,糊圖也行!

      從 GPT-5 開(kāi)始,推理模型和非推理模型很有可能會(huì)整合在一起……

    熱文

    • 3 天
    • 7天