11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
Meta的視頻版分割一切——SegmentAnythingModel2,又火了一把。因?yàn)檫@一次,一個(gè)全華人團(tuán)隊(duì),僅僅是用了個(gè)經(jīng)典方法,就把它的能力拔到了一個(gè)新高度——任你移動(dòng)再快,AI跟丟不了一點(diǎn)點(diǎn)!例如在電影《1917》這段畫面里,主角穿梭在眾多士兵之中,原先的SAM2表現(xiàn)是這樣的:嗯,當(dāng)一大群士兵涌入畫面的時(shí)候,SAM2把主角給跟丟了。關(guān)于SAMURAI更多內(nèi)容,可戳下方鏈接。
APE是一種全開源的多模態(tài)分割模型,其獨(dú)特之處在于采用了獨(dú)立建模每個(gè)類別名實(shí)例的方法。以往的方法通常將多個(gè)類別名聯(lián)結(jié)成一個(gè)單獨(dú)的Prompt,但APE通過對每個(gè)類別名或描述短語進(jìn)行獨(dú)立建模,可以學(xué)習(xí)到不同實(shí)例之間的差異。未來的研究可以進(jìn)一步探索APE在其他視覺任務(wù)中的應(yīng)用,以及對其方法進(jìn)行優(yōu)化和改進(jìn)。
對于2023年的計(jì)算機(jī)視覺領(lǐng)域來說,「分割一切」是備受關(guān)注的一項(xiàng)研究進(jìn)展。Meta四月份發(fā)布的「分割一切模型」效果,它能很好地自動(dòng)分割圖像中的所有內(nèi)容SegmentAnything的關(guān)鍵特征是基于提示的視覺Transformer模型,該模型是在一個(gè)包含來自1100萬張圖像的超過10億個(gè)掩碼的視覺數(shù)據(jù)集SA-1B上訓(xùn)練的,可以分割給定圖像上的任何目標(biāo)。圖3、4、5提供了一些定性結(jié)果,以便讀者對Effic
PyTorch團(tuán)隊(duì)對Meta的「分割一切」模型進(jìn)行了重寫,使其在保持準(zhǔn)確率的同時(shí)提速8倍。該優(yōu)化過程涉及多方面的PyTorch原生特性和新功能的應(yīng)用。整篇文章通過深入的性能分析和實(shí)驗(yàn),為讀者提供了一手關(guān)于PyTorch模型加速優(yōu)化的詳實(shí)指南。
計(jì)算機(jī)視覺巔峰大會(huì)ICCV2023,在法國巴黎正式“開獎(jiǎng)”!今年的最佳論文獎(jiǎng),簡直是“神仙打架”。獲得最佳論文獎(jiǎng)的兩篇論文中,就包括顛覆文生圖AI領(lǐng)域的著作——ControlNet。來自MIT的TedAdelson教授則獲得了終身成就獎(jiǎng)。
ICCV論文收錄名單近日「開獎(jiǎng)」,其中就包括這個(gè)港科大一作的圖像分割模型!它能以更低的訓(xùn)練成本實(shí)現(xiàn)更好的效果,哪怕遇到未知物體也能迎刃解。此外據(jù)作者介紹,它還是第一個(gè)擁有基于boxprompts的分割能力的AI模型,比Meta的SAM還要早實(shí)現(xiàn)。在COCO和ADE20K的全景分割以及ADE20K和Cityscapes的實(shí)例分割上,OpenSeeD的性能也與現(xiàn)有最佳模型相當(dāng)。
香港科技大學(xué)團(tuán)隊(duì)開發(fā)出一款名為Semantic-SAM的圖像分割A(yù)I模型,相比Meta的SAM模型,Semantic-SAM具有更強(qiáng)的粒度和語義功能。該模型能夠在不同粒度級別上分割和識別物體,并為分割出的實(shí)體提供語義標(biāo)簽。Semantic-SAM是一款全面且強(qiáng)大的圖像分割A(yù)I模型。
比Meta“分割一切”的SAM更全能的圖像分割A(yù)I,來了!模型名為Semantic-SAM,顧名思義,在完全復(fù)現(xiàn)SAM分割效果的基礎(chǔ)上,這個(gè)AI還具有兩大特點(diǎn):語義感知:模型能夠給分割出的實(shí)體提供語義標(biāo)簽粒度豐富:模型能夠分割從物體到部件的不同粒度級別的實(shí)體用作者自己的話說:論文來自香港科技大學(xué)、微軟研究院、IDEA研究院、香港大學(xué)、威斯康星大學(xué)麥迪遜分校和清華大學(xué)等研究單位。
中國科學(xué)院的一個(gè)團(tuán)隊(duì)發(fā)布了FastSAM模型的開源版本。通過將任務(wù)細(xì)分為全實(shí)例分割和提示指導(dǎo)選擇兩個(gè)子任務(wù),這個(gè)模型能夠以驚人的速度實(shí)現(xiàn)與原始SAM相近的效果還可以實(shí)時(shí)推理達(dá)到每秒25幀。這個(gè)FastSAM模型的開源將為圖像分割任務(wù)帶來更高效和準(zhǔn)確的解決方案,為研究人員和開發(fā)者提供了一個(gè)強(qiáng)大的工具。