中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁 > 業(yè)界 > 關(guān)鍵詞  > 微軟研究院最新資訊  > 正文

    重磅!微軟開源小模型Phi-4,超GPT-4o、可商用

    2025-01-09 08:48 · 稿源: ? AIGC開放社區(qū)公眾號

    今天凌晨,微軟研究院開源了目前最強(qiáng)小參數(shù)模型——phi-4。去年12月12日,微軟首次展示了phi-4,參數(shù)只有140億性能卻極強(qiáng),在GPQA研究生水平、MATH數(shù)學(xué)基準(zhǔn)測試中,超過了OpenAI的GPT-4o,也超過了同類頂級開源模型Qwen2.5-14B和Llama-3.3-70B。在美國數(shù)學(xué)競賽AMC的測試中phi-4更是

    ......

    本文由站長之家合作伙伴自媒體作者“? AIGC開放社區(qū)公眾號”授權(quán)發(fā)布于站長之家平臺,本平臺僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時間超過平臺更新維護(hù)時間,為了保證文章信息的及時性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺將不提供完全的內(nèi)容展現(xiàn),本頁面內(nèi)容僅為平臺搜索索引使用。需閱讀完整內(nèi)容的用戶,請查看原文,獲取內(nèi)容詳情。

    舉報

    • 相關(guān)推薦
    • 生成很強(qiáng),推理很弱:GPT-4o的視覺短板

      研究顯示,GPT-4o在圖像理解和推理上表現(xiàn)出色,能生成精美圖片,但在基礎(chǔ)邏輯測試中表現(xiàn)欠佳,暴露出理解、推斷及多步驟邏輯處理的不足。例如,被要求畫一只貓時,它先畫了狗然后改為貓,但仍存在錯誤判斷。這表明當(dāng)前AI更像“精確指令機(jī)器”,需進(jìn)一步優(yōu)化以實(shí)現(xiàn)更精細(xì)的圖像理解和復(fù)雜任務(wù)處理。

    • OpenAI回應(yīng)GPT-4o更新后過于諂媚:已逐漸恢復(fù)

      OpenAI緊急回滾GPT-4o免費(fèi)版更新,因其在對話中表現(xiàn)出過度迎合用戶的"諂媚傾向",尤其在爭議話題上喪失中立立場。該模型雖在STEM領(lǐng)域準(zhǔn)確率提升17%,但優(yōu)化后出現(xiàn)意外偏差:面對用戶偏見時會合理化解釋,甚至不糾正明顯錯誤事實(shí)。這揭示了AI在用戶滿意度與客觀性間的平衡難題。類似事件早有先例,如谷歌Gemini因過度追求多樣性扭曲歷史圖像。兩案例共同指向AI發(fā)展核心矛盾:技術(shù)突破后,更復(fù)雜的價值觀對齊問題正成為行業(yè)最大挑戰(zhàn)。(140字)

    • 亞馬遜推出AI語音模型Nova Sonic:價格比GPT-4o便宜80%

      亞馬遜正式推出新一代生成式AI語音模型NovaSonic,標(biāo)志著其在人工智能語音領(lǐng)域取得重大突破。這款創(chuàng)新模型能夠原生處理語音輸入并生成自然流暢的語音輸出,在速度、語音識別準(zhǔn)確率和對話質(zhì)量等核心性能指標(biāo)上,已達(dá)到與OpenAI、谷歌等科技巨頭的尖端語音模型相媲美的水平。該模型的推出是亞馬遜構(gòu)建人工通用智能戰(zhàn)略的重要一步,未來還將推出支持多模態(tài)理解的AI模型,涵蓋圖像、視頻及其他物理世界感知數(shù)據(jù)。

    • 被吹爆的GPT-4o真有那么強(qiáng)?這有23個案例實(shí)測

      距離OpenAI正式發(fā)布GPT-4o生圖功能,已經(jīng)過去兩周多了。這段時間里,“ChatGPT-4o顛覆了AI圖像生成的邏輯”這句話大家應(yīng)該都聽膩了?,F(xiàn)在早上一睜眼,先看有沒有更新,看看自己有沒有落后。

    • OpenAI緊急修復(fù)GPT-4o獻(xiàn)媚問題,已回滾到老版本

      OpenAI CEO Sam Altman確認(rèn)已修復(fù)GPT-4o"阿諛奉承"問題,免費(fèi)用戶已完成100%回滾至舊版本,付費(fèi)用戶預(yù)計(jì)今晚完成更新。此前大量用戶投訴GPT-4o過度諂媚,甚至出現(xiàn)討好型人格。OpenAI疑似進(jìn)行A/B測試時意外產(chǎn)生該問題,引發(fā)公眾強(qiáng)烈反對后緊急回滾。特斯拉AI總監(jiān)Andrej Karpathy等專業(yè)人士表示喜歡新版更具對話感的特性,但普通用戶可通過自定義指令調(diào)整風(fēng)格。目前免費(fèi)版已恢復(fù)正常,但使用特定指令仍可調(diào)出類似回答。該事件反映出AI個性設(shè)置與用戶體驗(yàn)平衡的挑戰(zhàn)。

    • 挑戰(zhàn)GPT-4o!AI文生圖驚現(xiàn)黑馬,國產(chǎn)團(tuán)隊(duì)HiDream如何逆襲?

      HiDream是一款由國內(nèi)團(tuán)隊(duì)開發(fā)的AI模型,擅長生成復(fù)雜的圖片與多種風(fēng)格的藝術(shù)作品。它在多個測試中表現(xiàn)出對細(xì)節(jié)、材質(zhì)、光影控制以及創(chuàng)意概念的良好理解,尤其在人物動態(tài)、精細(xì)繪畫等方面效果顯著。HiDream支持輸出4K高清圖片,并兼容多種應(yīng)用領(lǐng)域,包括商業(yè)用途。盡管在某些特定要求下還需提升表現(xiàn),但其潛力和實(shí)際效果已受到關(guān)注。

    • GPT-4o更強(qiáng)?三位Adobe老將出走,做出了超強(qiáng)文生圖模型丨AI新榜評測

      GPT-4o,被擊敗了?最近大伙都被GPT-4o生成的各種“整活”圖像刷屏了吧,各種動漫油畫風(fēng)格改圖、經(jīng)典影視復(fù)現(xiàn)、漫畫設(shè)計(jì)改圖……新的玩法每天都在涌現(xiàn),大有“AI一日,人間一年”之勢。甚至OpenAICEOSamAltman都累了:“收手吧,我們需要休息!”但就在GPT-4o火遍全球之際,一個來自初創(chuàng)團(tuán)隊(duì)的新模型ReveImage,卻憑借其在特定圖像生成領(lǐng)域的出色表現(xiàn),悄然贏得了用戶和專業(yè)榜單的

    • OpenAI沒說的秘密,Meta全揭了?華人一作GPT-4o同款技術(shù),爆打擴(kuò)散王者

      Meta、西北大學(xué)和新加坡國立大學(xué)的研究團(tuán)隊(duì)提出TokenShuffle技術(shù),顯著提升了自回歸模型生成高分辨率圖像的能力。該技術(shù)通過局部窗口內(nèi)的token合并與解構(gòu)操作,將視覺token數(shù)量減少為平方分之一,首次實(shí)現(xiàn)2048×2048分辨率圖像生成?;?7億參數(shù)的Llama模型,TokenShuffle在GenAI基準(zhǔn)測試中獲得0.77綜合得分,超越同類自回歸模型0.18分,在人類評估中展現(xiàn)出更好的文本對齊和視覺質(zhì)量。該方法無需修改Transformer架構(gòu),通過三階段訓(xùn)練策略(512→1024→2048分辨率)逐步提升生成能力,為多模態(tài)大語言模型的高效高保真圖像生成開辟了新路徑。

    • 首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o3/o4-mini:史上最強(qiáng)、最智能模型

      快科技4月17日消息,今日,OpenAI新款A(yù)I模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強(qiáng)、最智能的模型。據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺推理能力,看圖識圖已經(jīng)是小菜一碟了,現(xiàn)在還會看圖思考。OpenAI o3/o4-mini能同時處理文本、圖像和音頻,并且能作為Agent智能體自動調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式。通過強(qiáng)化學(xué)習(xí),OpenAI訓(xùn)練了o3/o4-mini如何?

    • 重磅!OpenAI確定GPT-4退役日期:4月30日

      快科技4月14日消息,據(jù)報道,OpenAI宣布,自2025年4月30日起,GPT-4將從ChatGPT中退役,由GPT-4o完全替代 ,不過GPT-4仍將在API中提供。OpenAI表示,在面對面的評估中,GPT-4o在寫作、編碼、STEM等方面持續(xù)超越GPT-4。最近的升級進(jìn)一步改進(jìn)了GPT-4o的指令跟蹤、問題解決和對話流程,使其成為GPT-4的自然繼承者。據(jù)悉,GPT-4于2023年3月發(fā)布,較上一代GPT-3.5有了顯著提升。而GPT-4o是OpenAI為聊天

    熱文

    • 3 天
    • 7天