11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
微軟在官網(wǎng)開源了,最新動態(tài)蛋白質(zhì)生成模型BioEmu-1。BioEmu-1能在單個GPU上每小時生成數(shù)千種蛋白質(zhì)結(jié)構(gòu),生成效率比傳統(tǒng)MD模擬提高了幾個數(shù)量級。在預(yù)測人類血管緊張素轉(zhuǎn)換酶2的構(gòu)象柔性方面,BioEmu-1成功揭示了ACE2在不同構(gòu)象下的動態(tài)特性,證明了其在解析生物大分子相互作用及預(yù)測蛋白質(zhì)功能方面的巨大潛力。
微軟在官網(wǎng)發(fā)布了視覺Agent解析框架OmniParser最新版本V2.0,可將DeepSeek-R1、GPT-4o、Qwen-2.5VL等模型,變成可在計算機使用的AIAgent。與V1版本相比,V2在檢測較小的可交互UI元素時準(zhǔn)確率更高、推理速度更快,延遲降低了60%。當(dāng)任務(wù)是“點擊設(shè)置按鈕”時,OmniParser不僅提供了設(shè)置按鈕的邊界框和ID提供了其功能描述,顆顯著提高了模型的準(zhǔn)確性和魯棒性。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、巨量引擎旗下AIGC工具“即創(chuàng)”正式版上線巨量引擎的AIGC工具“即創(chuàng)”正式上線,提供多種內(nèi)容生成方式,包括AI腳本生成、智能成片和數(shù)字人等。用戶反饋新版本在圖像質(zhì)量和細節(jié)處理上顯著下降,導(dǎo)致微軟搜索部門負(fù)責(zé)人JordiRibas承認(rèn)并采取措施恢復(fù)舊版。
微軟研究院開源了目前最強小參數(shù)模型——phi-4。去年12月12日,微軟首次展示了phi-4,參數(shù)只有140億性能卻極強,在GPQA研究生水平、MATH數(shù)學(xué)基準(zhǔn)測試中,超過了OpenAI的GPT-4o,也超過了同類頂級開源模型Qwen2.5-14B和Llama-3.3-70B。在與其他類似規(guī)模和更大規(guī)模的模型比較中,phi-4在12個基準(zhǔn)測試中的9個上優(yōu)于同類開源模型Qwen-2.5-14B-Instruct。
微軟AzureAI團隊宣布開源視覺模型——Florence-2。Florence-2是一個多功能視覺模型,可提供圖像描述、目標(biāo)檢測、視覺定位、圖像分割等。尤其是在微調(diào)后,F(xiàn)lorence-2在公共基準(zhǔn)測試中的性能與更大參數(shù)的專業(yè)模型相媲美。
7月3日,微軟在官網(wǎng)開源了基于圖的RAG——GraphRAG。為了增強大模型的搜索、問答、摘要、推理等能力,RAG已經(jīng)成為GPT-4、Qwen-2、文心一言、訊飛星火、Gemini等國內(nèi)外知名大模型標(biāo)配功能。同時GraphRAG對tokens的需求很低,也就是說可以幫助開發(fā)者節(jié)省大量成本。
4月23日晚,微軟在官網(wǎng)開源了小參數(shù)的大語言模型——Phi-3-mini。Phi-3-mini是微軟Phi家族的第4代,有預(yù)訓(xùn)練和指令微調(diào)多種模型,參數(shù)只有38億訓(xùn)練數(shù)據(jù)卻高達3.3Ttokens,比很多數(shù)百億參數(shù)的模型訓(xùn)練數(shù)據(jù)都要多,這也是其性能超強的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,資源消耗卻更少。
清華和微軟的研究人員提出了一種全新的方法,能在保證輸出質(zhì)量不變的前提下,將提示詞壓縮到原始長度的20%!在自然語言處理中,有很多信息其實是重復(fù)的。如果能將提示詞進行有效地壓縮,某種程度上也相當(dāng)于擴大了模型支持上下文的長度。GPT-4可以有效地重建原始提示,這表明在LLMLingua-2壓縮過程中并沒有丟失基本信息。
LoRA的高效能力已在文生圖領(lǐng)域獲得廣泛應(yīng)用,可以準(zhǔn)確渲染、融合圖像中的特定元素,例如,不同字符、特殊服裝或樣式背景等,同時可對圖像進行壓縮、去噪、補全進行優(yōu)化操作。但想在模型中應(yīng)用多個LoRA構(gòu)建更復(fù)雜的圖像時,會出現(xiàn)圖像失真、難以控制細節(jié)的難題。尤其是使用數(shù)量較多的LoRA組合時,生成高質(zhì)量的效果更加明顯。
近日,微軟正式開源緩存存儲系統(tǒng)Garnet,能更大限度發(fā)揮硬件功能,幫助開發(fā)人員更快地運行應(yīng)用程序。微軟研究院數(shù)據(jù)庫小組高級首席研究員BadrishChandramouli介紹,Garnet項目是基于C#.NET8.0從零開始構(gòu)建成,且以性能為核心考量。從基準(zhǔn)性能圖表來看,GET命令的吞吐量超過了Dragonfly十倍以上,第99百分位上的延遲卻比Dragonfly更低,同時Garnet和Dragonfly在吞吐量和延遲上的表現(xiàn)均遠遠優(yōu)于Redis。