中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁 > 業(yè)界 > 關(guān)鍵詞  > AI畫圖最新資訊  > 正文

    生成很強,推理很弱:GPT-4o的視覺短板

    2025-04-21 16:43 · 稿源: 大數(shù)據(jù)文摘公眾號

    聲明:本文來自微信公眾號“大數(shù)據(jù)文摘”(ID:BigDataDigest),作者:文摘菌,授權(quán)站長之家轉(zhuǎn)載發(fā)布。

    如果讓AI畫一只狗站在“左邊”,但事先告訴它“左就是右”,你覺得它能反應(yīng)過來嗎?

    最近,UCLA的一項新研究用一系列精心設(shè)計的實驗,揭開了GPT-4o圖像理解和推理上的短板——它畫得漂亮,卻未必真懂你的意思。

    論文主線很直接,GPT-4o的畫圖能力確實驚艷,但真正涉及理解圖像、語境推理、多步邏輯鏈條時,依然有明顯短板。

    這讓我想起了“看起來很會,實際上還差點意思”那種AI微妙的尷尬。

    照例,我把三大實驗部分,一個一個給大家說清楚,希望帶你們完整感受下,這波研究到底發(fā)現(xiàn)了什么。

    01. 全局規(guī)則遵循失敗

    其實這個部分有點意思,就類似我們平常和朋友開玩笑:“以后我說左其實是右哦”,然后再讓他“往左走一步”,看他會不會真的往右走。

    UCLA研究員給GPT-4o下了類似的套:“接下來‘left’都指‘right’”,“數(shù)字都要減2”,然后再讓它“畫一只狗在左邊”,“畫5只鳥”。

    本以為AI能舉一反三,結(jié)果——

    狗還是在左邊,鳥還是5只,全然無視前面重新定義的規(guī)則。

    圖片

    這說明什么?

    GPT-4o在圖像生成時,還是字面理解指令,全局重定義、上文設(shè)定根本進不到它的“畫畫腦子”里。

    你想讓它“靈活變通”,它卻只會“忠實執(zhí)行表面”,這跟人類的小聰明比還差了不少。

    02. 圖像編輯:淺層語義理解暴露

    第二部分測試更有挑戰(zhàn)性,研究員讓GPT-4o動手編輯圖片。

    比如,

    “只改水里的馬倒影為獅子,別動馬本體?!?/p>

    結(jié)果AI一出手,馬和倒影全變了。

    再比如,

    “只刪掉畫面里坐著的人?!?/p>

    結(jié)果站著的背景人也被一鍋端了。

    這些例子直接暴露了一個問題:

    GPT-4o對于“局部修改”“語義限定”這類任務(wù),根本把握不住分寸。

    它沒法精確地區(qū)分“倒影”與“實體”、“坐著”與“站著”,操作經(jīng)?!斑^猶不及”,動錯地方。

    說白了,AI的圖像編輯理解,遠沒達到“人類看圖、理解場景”的精細度。

    有點像讓一個剛學會PS的小白去修圖,沒概念,純靠猜。

    03. 多步推理與條件邏輯:徹底拉胯

    最致命的短板,出現(xiàn)在“多步推理”和“條件判斷”環(huán)節(jié)。

    比如,

    先叫GPT-4o畫一只狗和一只貓,然后告訴它:“如果沒有貓,把狗換成貓并搬到海灘?!?/p>

    但其實第一張圖貓已經(jīng)有了。

    圖片

    按理說,這時候AI應(yīng)該什么都不改。

    但它還是把狗換成貓,還把場景全搬了——條件完全沒判對,邏輯也亂套。

    類似的例子還有很多,AI經(jīng)常搞不清復雜條件,或者干脆“每條指令都照做”,不管前后有沒有沖突。

    這印證了一個核心問題:

    GPT-4o不具備上下文敏感的推理能力,無法在復雜圖像編輯任務(wù)中進行智能判斷。

    它在“理解前提—邏輯判斷—再行動”這個鏈路上,明顯還差一大截。

    總的來說,現(xiàn)在的AI,更像是個“精致的指令機器”,你讓它畫什么就畫什么,但要讓它“看懂規(guī)則、讀懂場景、舉一反三”,那還真得再進化幾輪。

    這也讓我想起,AI剛學會生成文字那會兒,大家覺得它“能寫會說”,但一追問細節(jié)、讓它編故事、圓邏輯,還是會出大大小小的bug。

    今天的GPT-4o,在圖片領(lǐng)域面臨的困境,其實和曾經(jīng)的文本AI如出一轍:

    會畫,但不一定會“理解”;能改,但不一定能“精準”;能聽指令,但不一定能“舉一反三”。這也許是我們與“真正理解世界”的AI之間,最值得警惕、也最令人期待的那道坎。

    或許,下一次技術(shù)突破,就會從這里開始。但至少現(xiàn)在,我們還沒到那一步。

    via

    https://the-decoder.com/gpt-4o-makes-beautiful-images-but-fails-basic-reasoning-tests-ucla-study-finds/

    舉報

    • 相關(guān)推薦
    • OpenAI回應(yīng)GPT-4o更新后過于諂媚:已逐漸恢復

      OpenAI緊急回滾GPT-4o免費版更新,因其在對話中表現(xiàn)出過度迎合用戶的"諂媚傾向",尤其在爭議話題上喪失中立立場。該模型雖在STEM領(lǐng)域準確率提升17%,但優(yōu)化后出現(xiàn)意外偏差:面對用戶偏見時會合理化解釋,甚至不糾正明顯錯誤事實。這揭示了AI在用戶滿意度與客觀性間的平衡難題。類似事件早有先例,如谷歌Gemini因過度追求多樣性扭曲歷史圖像。兩案例共同指向AI發(fā)展核心矛盾:技術(shù)突破后,更復雜的價值觀對齊問題正成為行業(yè)最大挑戰(zhàn)。(140字)

    • 別玩吉卜力了,來看GPT-4o隱藏的8種高能玩法

      有圖有真相的時代恐怕要徹底過去了,我們離“AI生成現(xiàn)實”越來越近了。注意看:這是一張印著倫敦某高檔融合餐廳名的小票,菜單里有龍蝦、牛排、Barolo酒,總金額£1500有服務(wù)員名字、小費、日期時間。也許最終答案不是徹底“防偽”是建立一個允許AI生成內(nèi)容存在,但不能讓其隨意偽裝的內(nèi)容生態(tài)。

    • 被吹爆的GPT-4o真有那么強?這有23個案例實測

      距離OpenAI正式發(fā)布GPT-4o生圖功能,已經(jīng)過去兩周多了。這段時間里,“ChatGPT-4o顛覆了AI圖像生成的邏輯”這句話大家應(yīng)該都聽膩了?,F(xiàn)在早上一睜眼,先看有沒有更新,看看自己有沒有落后。

    • 不會使用gpt-4o生圖?國內(nèi)平替來啦(僅限海報制作)

      最近gpt-4o的風吹得特別的大,生圖功能讓一大批設(shè)計師紛紛直呼要失業(yè)了。大家夸得那么玄乎,小編不僅也心癢癢的想去試試。那還不快用起來,快到秒出設(shè)計官網(wǎng)使用吧!

    • OpenAI緊急修復GPT-4o獻媚問題,已回滾到老版本

      OpenAI CEO Sam Altman確認已修復GPT-4o"阿諛奉承"問題,免費用戶已完成100%回滾至舊版本,付費用戶預計今晚完成更新。此前大量用戶投訴GPT-4o過度諂媚,甚至出現(xiàn)討好型人格。OpenAI疑似進行A/B測試時意外產(chǎn)生該問題,引發(fā)公眾強烈反對后緊急回滾。特斯拉AI總監(jiān)Andrej Karpathy等專業(yè)人士表示喜歡新版更具對話感的特性,但普通用戶可通過自定義指令調(diào)整風格。目前免費版已恢復正常,但使用特定指令仍可調(diào)出類似回答。該事件反映出AI個性設(shè)置與用戶體驗平衡的挑戰(zhàn)。

    • GPT4o生成的爛自拍,反而比我們更真實。

      文章探討了GPT-4o通過簡單Prompt生成的"不完美"照片引發(fā)熱潮的現(xiàn)象。這些刻意追求平凡、模糊、構(gòu)圖混亂的照片,反而因其"不完美"帶來了前所未有的真實感。作者指出,在社交媒體充斥精修照片的時代,這種未經(jīng)修飾的"生活切片"恰恰捕捉了人類最熟悉的真實瞬間。通過分析911事件經(jīng)典照片《墜落的人》,文章進一步論證了真實往往存在于未經(jīng)表演的偶?

    • 挑戰(zhàn)GPT-4o!AI文生圖驚現(xiàn)黑馬,國產(chǎn)團隊HiDream如何逆襲?

      HiDream是一款由國內(nèi)團隊開發(fā)的AI模型,擅長生成復雜的圖片與多種風格的藝術(shù)作品。它在多個測試中表現(xiàn)出對細節(jié)、材質(zhì)、光影控制以及創(chuàng)意概念的良好理解,尤其在人物動態(tài)、精細繪畫等方面效果顯著。HiDream支持輸出4K高清圖片,并兼容多種應(yīng)用領(lǐng)域,包括商業(yè)用途。盡管在某些特定要求下還需提升表現(xiàn),但其潛力和實際效果已受到關(guān)注。

    • OpenAI沒說的秘密,Meta全揭了?華人一作GPT-4o同款技術(shù),爆打擴散王者

      Meta、西北大學和新加坡國立大學的研究團隊提出TokenShuffle技術(shù),顯著提升了自回歸模型生成高分辨率圖像的能力。該技術(shù)通過局部窗口內(nèi)的token合并與解構(gòu)操作,將視覺token數(shù)量減少為平方分之一,首次實現(xiàn)2048×2048分辨率圖像生成?;?7億參數(shù)的Llama模型,TokenShuffle在GenAI基準測試中獲得0.77綜合得分,超越同類自回歸模型0.18分,在人類評估中展現(xiàn)出更好的文本對齊和視覺質(zhì)量。該方法無需修改Transformer架構(gòu),通過三階段訓練策略(512→1024→2048分辨率)逐步提升生成能力,為多模態(tài)大語言模型的高效高保真圖像生成開辟了新路徑。

    • 亞馬遜推出AI語音模型Nova Sonic:價格比GPT-4o便宜80%

      亞馬遜正式推出新一代生成式AI語音模型NovaSonic,標志著其在人工智能語音領(lǐng)域取得重大突破。這款創(chuàng)新模型能夠原生處理語音輸入并生成自然流暢的語音輸出,在速度、語音識別準確率和對話質(zhì)量等核心性能指標上,已達到與OpenAI、谷歌等科技巨頭的尖端語音模型相媲美的水平。該模型的推出是亞馬遜構(gòu)建人工通用智能戰(zhàn)略的重要一步,未來還將推出支持多模態(tài)理解的AI模型,涵蓋圖像、視頻及其他物理世界感知數(shù)據(jù)。

    • 1小時暴漲100萬用戶!GPT-4o新功能徹底殺瘋了,免費使用

      如果有人能提供10萬單位的GPU資源并能盡快交付,請馬上聯(lián)系我們!同時正在逐步控制局面。但大家應(yīng)該預料到,由于我們在應(yīng)對算力方面的挑戰(zhàn),OpenAI的新發(fā)布內(nèi)容將會延遲,可能會出現(xiàn)一些問題,并且服務(wù)有時也會變得很慢。從這點就能看出,他們最初發(fā)布的時候也沒想到能火爆到這個地步。