11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
在國家漏洞庫網(wǎng)絡(luò)安全漏洞治理產(chǎn)業(yè)協(xié)同創(chuàng)新研討活動中,深信服被授予“國家信息安全漏洞庫核心技術(shù)支撐試點(diǎn)單位”,并榮獲“2024年度國家信息安全漏洞庫優(yōu)秀漏洞管理企業(yè)獎”。此次獲得雙項(xiàng)殊榮,不僅是對深信服在漏洞挖掘、分析等領(lǐng)域技術(shù)實(shí)力的認(rèn)可,也證明其漏洞管理能力得到了國家權(quán)威機(jī)構(gòu)的肯定。深信服將繼續(xù)加大技術(shù)投入,不斷提升漏洞治理能力,在CNNVD的統(tǒng)籌指導(dǎo)下,與全行業(yè)共同推動網(wǎng)絡(luò)安全漏洞治理體系的創(chuàng)新和發(fā)展,為構(gòu)建更加安全、穩(wěn)定、可靠的網(wǎng)絡(luò)環(huán)境提供堅實(shí)的技術(shù)支持和保障,為國家的網(wǎng)絡(luò)安全事業(yè)作出新的貢獻(xiàn)。
Transformer大模型尺寸變化,正在重走CNN的老路!看到大家都被LLaMA3.1吸引了注意力,賈揚(yáng)清發(fā)出如此感慨。拿大模型尺寸的發(fā)展,和CNN的發(fā)展作對比,就能發(fā)現(xiàn)一個明顯的趨勢和現(xiàn)象:在ImageNet時代,研究人員和技術(shù)從業(yè)者見證了參數(shù)規(guī)模的快速增長,然后又開始轉(zhuǎn)向更小、更高效的模型?!彼裕蛟S更高效的小·大模型,能夠重新定義AI的“智能”,挑戰(zhàn)“越大越好”的假設(shè)。
3月22日,中國互聯(lián)網(wǎng)絡(luò)信息中心在北京發(fā)布了第53次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告》。報告指出我國網(wǎng)民規(guī)模已經(jīng)達(dá)到驚人的10.92億人,較2022年12月新增了2480萬人,互聯(lián)網(wǎng)普及率更是高達(dá)77.5%。蜂窩物聯(lián)網(wǎng)終端用戶數(shù)量也實(shí)現(xiàn)了顯著增長,占移動網(wǎng)終端連接數(shù)的比例達(dá)到了57.5%。
人工智能公司OpenAI正就授權(quán)CNN、??怂购蜁r代周刊等媒體公司的內(nèi)容進(jìn)行談判,以增強(qiáng)其ChatGPT聊天機(jī)器人的產(chǎn)品。這些談判發(fā)生在該公司面臨侵犯版權(quán)指控的背景下。一組包括普利策獎獲得者在內(nèi)的11名非虛構(gòu)作品作者加入了一項(xiàng)訴訟,指控OpenAI和Microsoft未經(jīng)許可使用其著作進(jìn)行人工智能程序的訓(xùn)練。
在Transformer占據(jù)多模態(tài)工具半壁江山的時代,大核CNN又“殺了回來”,成為了一匹新的黑馬。騰訊AI實(shí)驗(yàn)室與港中文聯(lián)合團(tuán)隊提出了一種新的CNN架構(gòu),圖像識別精度和速度都超過了Transformer架構(gòu)模型。作者已經(jīng)放出了所有代碼,并將所有模型和實(shí)驗(yàn)?zāi)_本開源。
Meta的FAIR團(tuán)隊再次迎來一位大佬級研究科學(xué)家的離職消息,R-CNN的作者RossGirshick決定離開Meta,加盟艾倫人工智能研究所。這也是近期FAIR團(tuán)隊內(nèi)部的一系列離職動蕩中的最新發(fā)展。這一系列的動蕩也讓業(yè)界對Meta在AI領(lǐng)域的發(fā)展保持關(guān)注,以期看到他們在人才留存和創(chuàng)新方面取得更多進(jìn)展。
近日, 360 數(shù)字安全集團(tuán)榮獲中國信息安全測評中心頒發(fā)的“國家信息安全漏洞庫(CNNVD)一級技術(shù)支撐單位等級證書”,成為該領(lǐng)域最高級別支撐單位之一。 國家信息安全漏洞庫(CNNVD)是中國信息安全測評中心履行漏洞分析和風(fēng)險評估職能的重要平臺,在信息安全漏洞搜集、重大漏洞信息通報、高危漏洞安全消控等方面發(fā)揮了重大作用,為我國重要行業(yè)和關(guān)鍵基礎(chǔ)設(shè)施安全
視覺Transformer成為各類視覺任務(wù)如物體識別和圖片分類的有效架構(gòu)。這是因?yàn)樽宰⒁饬梢詮膱D片中提取全局信息卷積核大小限制了卷積神經(jīng)網(wǎng)絡(luò)只能提取局部信息。他們的貢獻(xiàn)有:1)提出了緊湊高效的視覺Transformer模型DualToken-ViT,通過卷積和自注意力的優(yōu)勢實(shí)現(xiàn)有效的注意力結(jié)構(gòu);2)提出位置感知全局令牌,通過圖像位置信息來增強(qiáng)全局信息;3)DualToken-ViT在相同F(xiàn)LOPs下在多個視覺任務(wù)上表現(xiàn)最好。
京都大學(xué)的研究人員利用卷積神經(jīng)網(wǎng)絡(luò)技術(shù),基于水稻冠層照片快速準(zhǔn)確預(yù)測糧食產(chǎn)量。這項(xiàng)研究成果發(fā)表在《植物表型學(xué)》雜志上。該研究為利用AI技術(shù)快速準(zhǔn)確預(yù)測全球各地糧食產(chǎn)量提供了可行方案,可望助力全球農(nóng)業(yè)發(fā)展,保障糧食安全。
繼紐約時報,CNN、路透社等在內(nèi)的多家主流新聞媒體也開始在其網(wǎng)站上屏蔽OpenAI的GPTBot網(wǎng)絡(luò)爬蟲,限制它繼續(xù)獲取這些媒體的內(nèi)容。TheVerge最先報道《紐約時報》在其網(wǎng)站上屏蔽了GPTBot。Google最近還向澳大利亞政府提出,除非新聞媒體明確選擇退出,否則人工智能系統(tǒng)應(yīng)該可以默認(rèn)獲取這些媒體的內(nèi)容來訓(xùn)練模型。