中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > AI最新資訊  > 正文

    Llama3-V: 全新開(kāi)源視覺(jué)大語(yǔ)言模型出世

    2024-05-29 08:45 · 稿源:站長(zhǎng)之家

    近日,AI界掀起了一股新風(fēng)潮,一款名為Llama3-V的全新開(kāi)源視覺(jué)大語(yǔ)言模型橫空出世!據(jù)悉,這款模型基于Llama38B和siglip-so400m,被稱為最先進(jìn)的視覺(jué)大語(yǔ)言模型之一。與此同時(shí),該模型還具備快速本地推理的特點(diǎn),讓用戶能夠更加便捷地進(jìn)行推理操作。

    有關(guān)Llama3-V的一些關(guān)鍵特點(diǎn)包括:優(yōu)于LLaVA約10-20%的性能表現(xiàn)、訓(xùn)練成本低于500美元以及可與GPT4-V、Gemini Ultra和Claude3相媲美的性能。同時(shí),該模型的權(quán)重、訓(xùn)練和推理代碼也將會(huì)開(kāi)源發(fā)布,讓更多的開(kāi)發(fā)者能夠參與其中。

    現(xiàn)在,Llama3-V已經(jīng)在Hugging Face平臺(tái)和Github上發(fā)布,吸引了大量關(guān)注和好評(píng)。據(jù)悉,這款模型不僅能夠優(yōu)于以往的同類產(chǎn)品,還能夠以更小的模型體積達(dá)到與其他大型模型相媲美的性能水平。

    總的來(lái)說(shuō),Llama3-V的推出無(wú)疑將為AI領(lǐng)域帶來(lái)一股新的風(fēng)向,讓我們拭目以待,看這款模型能為人工智能領(lǐng)域帶來(lái)怎樣的突破與創(chuàng)新!

    HF Model:https://huggingface.co/mustafaaljadery/llama3v…

    Github Repo:https://github.com/mustafaaljadery/llama3v

    Uploaded Image

    舉報(bào)

    • 相關(guān)推薦
    • 苦等一年 Meta終于放大招 正式發(fā)布開(kāi)源大模型Llama 4

      美國(guó)科技巨擘Meta重磅推出其迄今最為強(qiáng)大的開(kāi)源AI模型Llama4,恰逢Llama3上市一周年之際。Llama4系列采用了先進(jìn)的混合專家架構(gòu),這一架構(gòu)在模型訓(xùn)練及用戶查詢回答過(guò)程中展現(xiàn)出更高效率,通過(guò)將模型劃分為多個(gè)專注于特定任務(wù)的專家”子模型,實(shí)現(xiàn)精準(zhǔn)高效的處理。Meta首席執(zhí)行官扎克伯格表示:他們的目標(biāo)是建立世界領(lǐng)先的人工智能,將其開(kāi)源,并使其普遍可用,以便世界上每個(gè)人都能受益。

    • Llama 4大模型跌落神壇:作弊刷榜、代碼能力極差、和DeepSeek比就是偽開(kāi)源

      被寄予厚望的美國(guó)Meta公司的最新開(kāi)源大模型Llama4發(fā)布不到2天時(shí)間,口碑急轉(zhuǎn)直下,被質(zhì)疑為刷榜作弊實(shí)際效果差、開(kāi)源條件多部署門(mén)檻高是偽開(kāi)源等。大模型評(píng)測(cè)平臺(tái)LMArena親自下場(chǎng)發(fā)文,打臉Meta提供給平臺(tái)的Llama4是“特供版”。Meta若繼續(xù)在商業(yè)控制與技術(shù)開(kāi)放之間搖擺,恐將在AI競(jìng)賽中進(jìn)一步失去開(kāi)發(fā)者支持。

    • 剛剛,Llama 4深夜開(kāi)源擊敗DeepSeek V3!2萬(wàn)億多模態(tài)巨獸搶回王座

      Llama4重磅發(fā)布了!Meta官宣開(kāi)源首個(gè)原生多模態(tài)Llama4,首次采用的MoE架構(gòu),支持12種語(yǔ)言,首批發(fā)布一共兩款:Llama4Scout:共有1090億參數(shù),17B活躍參數(shù),16個(gè)專家,1000萬(wàn)上下Llama4Maverick:共有4000億參數(shù),17B活躍參數(shù),128個(gè)專家,100萬(wàn)上下文另外,2萬(wàn)億參數(shù)Llama4Behemoth將在未來(lái)幾個(gè)月面世,288B活躍參數(shù),16個(gè)專家。Llama4的橫空出世,成為迄今為止開(kāi)源最強(qiáng),多模態(tài)能力最好的模型之一。L

    • Meta說(shuō)他們的 Llama 4 偏見(jiàn)少了!但,“虛假對(duì)等”才是真偏見(jiàn)

      Meta公司稱,相比之前的版本,他們最新的人工智能模型Llama4的政治偏見(jiàn)更少了。其中一部分便是通過(guò)允許該模型回答更多帶有政治爭(zhēng)議性的問(wèn)題來(lái)實(shí)現(xiàn)這一點(diǎn)的。下次當(dāng)你使用Meta的AI產(chǎn)品時(shí),它可能會(huì)為“通過(guò)服用馬用鎮(zhèn)靜劑來(lái)治療新冠病毒”這種觀點(diǎn)說(shuō)好話!

    • 時(shí)空壺接入大語(yǔ)言模型,跨語(yǔ)言溝通已成翻譯的藝術(shù)

      在當(dāng)今全球化浪潮中,跨語(yǔ)言溝通的需求如潮水般洶涌。從商務(wù)領(lǐng)域的跨國(guó)談判,到文化交流中的思想碰撞,高效、精準(zhǔn)的語(yǔ)言翻譯成為關(guān)鍵橋梁。隨著技術(shù)的不斷發(fā)展與迭代,時(shí)空壺有望持續(xù)引領(lǐng)行業(yè)變革,推動(dòng)全球交流合作邁向新的高度,真正實(shí)現(xiàn)跨越語(yǔ)言障礙,讓世界溝通無(wú)阻。

    • 實(shí)錘了,Llama 4重測(cè)排名掉至32名!遠(yuǎn)不及DeepSeek和Qwen

      LMArena更新了Meta最新發(fā)布的開(kāi)源大模型Llama-4-Maverick的排名,從此前的第2名,直線掉到了第32名!這也實(shí)錘了此前開(kāi)發(fā)者對(duì)Meta為刷榜排名向LMArena提供了“特供版”的Llama4大模型的質(zhì)疑。開(kāi)源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名為32名,遠(yuǎn)低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至連英偉達(dá)基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

    • 反擊DeepSeek失?。?span id="9td1r99" class="col-red02">Llama 4效果不好,Meta承認(rèn)有問(wèn)題

      今天凌晨1點(diǎn)半,Meta生成式AI領(lǐng)導(dǎo)者AhmadAl-Dahle在社交平臺(tái)發(fā)布了一篇長(zhǎng)文,對(duì)前天剛開(kāi)源的Llama4質(zhì)疑進(jìn)行了官方回應(yīng)。Ahmad表示,Llama4一開(kāi)發(fā)完就發(fā)布了,所以,不同服務(wù)中模型質(zhì)量難免會(huì)有一些差異。由于關(guān)稅大戰(zhàn)的原因,Meta的股票遭遇重創(chuàng),他們也需要一個(gè)利好消息來(lái)拉升股票,現(xiàn)在適得其反。

    • Llama 4五大疑點(diǎn)曝光,逐層扒皮,球AI進(jìn)步停滯,NYU教授稱Scaling徹底結(jié)束

      令人失望的Llama4,只是前奏已。接下來(lái)我們恐將看到——全球局勢(shì)的改變,將徹底阻止AI進(jìn)步!最近,一位AICEO做出長(zhǎng)視頻,逐級(jí)對(duì)Llama4身上的六大疑點(diǎn)進(jìn)行了扒皮。GaryMarcus正在尋找對(duì)開(kāi)發(fā)更可靠替代方法有興趣的投資者。

    • 1000萬(wàn)上下文!新開(kāi)源多模態(tài)大模型,單個(gè)GPU就能運(yùn)行

      今年2月初,谷歌發(fā)布的Gemini2.0Pro支持200萬(wàn)上下文,震驚了整個(gè)大模型領(lǐng)域。僅過(guò)了2個(gè)月,Meta最新開(kāi)源的Llama4Scout就將上下文擴(kuò)展至1000萬(wàn),整整提升了5倍開(kāi)啟千萬(wàn)級(jí)時(shí)代。根據(jù)實(shí)驗(yàn)數(shù)據(jù)顯示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等測(cè)試的數(shù)據(jù)比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

    • 提升大模型自動(dòng)修Bug能力 豆包正式開(kāi)源首個(gè)多語(yǔ)言類SWE數(shù)據(jù)集

      今日,字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)宣布,正式開(kāi)源首個(gè)多語(yǔ)言類SWE數(shù)據(jù)集Multi-SWE-bench,可用于評(píng)估和提升大模型自動(dòng)修Bug”能力。在SWE-bench基礎(chǔ)上,Multi-SWE-bench首次覆蓋Python之外的7種主流編程語(yǔ)言,是真正面向全棧工程”的評(píng)測(cè)基準(zhǔn)。相比于以往聚焦Python的單語(yǔ)言任務(wù),Multi-SWE-bench更貼近現(xiàn)實(shí)中的多語(yǔ)言開(kāi)發(fā)場(chǎng)景,也更能反映當(dāng)前模型在自動(dòng)化軟件工程”方向上的實(shí)際能力邊界。

    熱文

    • 3 天
    • 7天