中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > OpenAI最新資訊  > 正文

    剛剛,OpenAI發(fā)布新文生圖模型,免費(fèi)、逼真到難以分辨

    2025-03-26 09:04 · 稿源: ? AIGC開(kāi)放社區(qū)公眾號(hào)

    今天凌晨2點(diǎn),OpenAI進(jìn)行了技術(shù)直播,對(duì)GPT-4o和Sora進(jìn)行了重大更新,提供了全新文生圖模型。除了文生圖之外,該模型還支持自定義操作、連續(xù)發(fā)問(wèn)、風(fēng)格轉(zhuǎn)換、圖像PPT等超實(shí)用功能,例如,更改圖片的寬高比、圖像物體中的角度,用十六進(jìn)制代碼指定精確顏色等。尤其是生成圖像的逼真

    ......

    本文由站長(zhǎng)之家合作伙伴自媒體作者“? AIGC開(kāi)放社區(qū)公眾號(hào)”授權(quán)發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過(guò)平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀(guān)點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶(hù),請(qǐng)查看原文,獲取內(nèi)容詳情。

    舉報(bào)

    • 相關(guān)推薦
    • 比GPT-4o更強(qiáng)?三位Adobe老將出走,做出了超強(qiáng)文生圖模型丨AI新榜評(píng)測(cè)

      GPT-4o,被擊敗了?最近大伙都被GPT-4o生成的各種“整活”圖像刷屏了吧,各種動(dòng)漫油畫(huà)風(fēng)格改圖、經(jīng)典影視復(fù)現(xiàn)、漫畫(huà)設(shè)計(jì)改圖……新的玩法每天都在涌現(xiàn),大有“AI一日,人間一年”之勢(shì)。甚至OpenAICEOSamAltman都累了:“收手吧,我們需要休息!”但就在GPT-4o火遍全球之際,一個(gè)來(lái)自初創(chuàng)團(tuán)隊(duì)的新模型ReveImage,卻憑借其在特定圖像生成領(lǐng)域的出色表現(xiàn),悄然贏得了用戶(hù)和專(zhuān)業(yè)榜單的

    • 剛剛,OpenAI發(fā)布GPT-image-1模型,更強(qiáng)吉卜力版本來(lái)啦

      OpenAI發(fā)布全新圖像生成模型GPT-image-1,通過(guò)API向全球開(kāi)發(fā)者開(kāi)放。該模型支持精細(xì)控制圖像敏感度、生成效率、背景、輸出格式等參數(shù),并集成吉卜力模式。Adobe、Figma等企業(yè)已將其應(yīng)用于產(chǎn)品中。API支持批量生成、蒙版編輯、透明度調(diào)整等高級(jí)功能,圖像生成成本從0.02-0.19美元/張不等。CEO Sam Altman表示該模型與ChatGPT版本差異顯著,開(kāi)發(fā)者可通過(guò)API實(shí)現(xiàn)更多創(chuàng)意場(chǎng)景。新模型在?

    • 為編程而生?OpenAI 發(fā)布 GPT -4.1 系列模型

      OpenAI 表示,GPT-4.1 是為開(kāi)發(fā)者量身定制的……

    • OpenAI發(fā)布o3、o4 mini模型,實(shí)現(xiàn)“看說(shuō)話(huà)”,糊也行!

      從 GPT-5 開(kāi)始,推理模型和非推理模型很有可能會(huì)整合在一起……

    • 國(guó)產(chǎn)六大推理模型激戰(zhàn)OpenAI

      2025年春節(jié)前夕,DeepSeek-R1模型發(fā)布,標(biāo)志著中國(guó)AI進(jìn)入推理模型新時(shí)代。文章梳理了國(guó)產(chǎn)大模型發(fā)展歷程:從2022年ChatGPT引發(fā)國(guó)內(nèi)追趕OpenAI熱潮,到2023年"百模大戰(zhàn)",再到2024年"AI六小虎"格局形成。重點(diǎn)分析了六大國(guó)產(chǎn)推理模型(DeepSeek、百度、阿里、科大訊飛、字節(jié)、騰訊)的技術(shù)特點(diǎn)與市場(chǎng)表現(xiàn),指出國(guó)產(chǎn)模型在性能上已接近GPT-4水平。特別強(qiáng)調(diào)科大訊飛星火X1憑借全國(guó)產(chǎn)化技術(shù)路線(xiàn)獲得政企青睞,以及DeepSeek-R1以560萬(wàn)美元超低成本實(shí)現(xiàn)高性能的突破。文章還探討了英偉達(dá)芯片斷供危機(jī)下,國(guó)產(chǎn)全棧技術(shù)路徑的重要性,認(rèn)為自主可控將成為對(duì)抗國(guó)際不確定性的關(guān)鍵。最后指出,隨著推理模型成為競(jìng)爭(zhēng)焦點(diǎn),國(guó)產(chǎn)大模型正從技術(shù)追隨轉(zhuǎn)向自主創(chuàng)新階段。

    • 剛剛OpenAI發(fā)布GPT-4.1,性能暴漲、100萬(wàn)上下文

      今天凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播發(fā)布了最新模型——GPT-4.1。除了GPT-4.1之外,還有GPT4.1-Mini和GPT4.1-Nano兩款模型,在多模態(tài)處理、代碼能力、指令遵循、成本方面實(shí)現(xiàn)大幅度提升。特別是支持100萬(wàn)token上下文,這對(duì)于金融分析、小說(shuō)寫(xiě)作、教育等領(lǐng)域幫助巨大。由于GPT-4.1的發(fā)布,OpenAI宣布將會(huì)淘汰剛發(fā)布不久的GPT-4.5,其能力可見(jiàn)一斑。目前,如果想體驗(yàn)GPT-4.1而無(wú)法通過(guò)API身?

    • 剛剛,AI破解50年未解數(shù)學(xué)難題!南大校友用OpenAI模型完成首個(gè)非平凡數(shù)學(xué)證明

      【新智元導(dǎo)讀】AI輔助人類(lèi),完成了首個(gè)非平凡研究數(shù)學(xué)證明,破解了50年未解的數(shù)學(xué)難題!在南大校友的研究中,這個(gè)難題中q=3的情況,由o3-mini-high給出了精確解。就在剛剛,AI完成了首個(gè)非平凡研究數(shù)學(xué)證明!完成這項(xiàng)研究的,是美國(guó)紐約布魯克海文國(guó)家實(shí)驗(yàn)室凝聚態(tài)物理與材料科學(xué)分部的一位華人學(xué)者Weiguo Yin。論文地址:https://arxiv.org/abs/2503.23758在這項(xiàng)研究中,作者在一維J_1-J

    • 首次實(shí)現(xiàn)像思考 OpenAI重磅發(fā)布o3/o4-mini:史上最強(qiáng)、最智能模型

      快科技4月17日消息,今日,OpenAI新款A(yù)I模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強(qiáng)、最智能的模型。據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺(jué)推理能力,看圖識(shí)圖已經(jīng)是小菜一碟了,現(xiàn)在還會(huì)看圖思考。OpenAI o3/o4-mini能同時(shí)處理文本、圖像和音頻,并且能作為Agent智能體自動(dòng)調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式。通過(guò)強(qiáng)化學(xué)習(xí),OpenAI訓(xùn)練了o3/o4-mini如何?

    • 媲美OpenAI-o3,剛剛開(kāi)源模型DeepCoder,訓(xùn)練方法、數(shù)據(jù)集大公開(kāi)

      今天凌晨4點(diǎn),著名大模型訓(xùn)練平臺(tái)TogetherAI和智能體平臺(tái)Agentica,聯(lián)合開(kāi)源了新模型DeepCoder-14B-Preview。該模型只有140億參數(shù),但在知名代碼測(cè)試平臺(tái)LiveCodeBench的測(cè)試分為60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI剛獲得3.05億美元的B輪融資,其估值也從去年的12.5億美元翻倍至33億美元。

    • 字節(jié)AI加速文生圖技術(shù)新突破,GOOG/微美全息引領(lǐng)開(kāi)源大模型釋放科技勢(shì)能

      字節(jié)跳動(dòng)發(fā)布豆包1.5深度思考模型,升級(jí)文生圖能力。該模型在專(zhuān)業(yè)領(lǐng)域和通用任務(wù)中表現(xiàn)突出,采用MoE架構(gòu),總參數(shù)量200B,激活參數(shù)20B,推理成本優(yōu)勢(shì)顯著。同時(shí),其圖像生成模型Seedream 3.0性能追平GPT-4o等頂尖模型。全球AI產(chǎn)業(yè)加速發(fā)展,開(kāi)源模型降低技術(shù)門(mén)檻,推動(dòng)商業(yè)化落地。微美全息等企業(yè)構(gòu)建開(kāi)放AI生態(tài),DeepSeek等公司通過(guò)開(kāi)源策略促進(jìn)技術(shù)普惠。行業(yè)迎來(lái)"開(kāi)源AI+"新階段,企業(yè)需把握機(jī)遇應(yīng)對(duì)挑戰(zhàn)。