中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁(yè) > 傳媒 > 關(guān)鍵詞  > AI數(shù)據(jù)平臺(tái)最新資訊  > 正文

    首個(gè)國(guó)產(chǎn)開源AI數(shù)據(jù)平臺(tái)Milvus加入世界開源組織

    2020-04-07 10:52 · 稿源: 站長(zhǎng)之家用戶

    傳統(tǒng)IT技術(shù)中有三大件(CPU,操作系統(tǒng),數(shù)據(jù)庫(kù))的說(shuō)法。AI領(lǐng)域中的三大件則是AI處理器,模型訓(xùn)練/推理平臺(tái)和AI數(shù)據(jù)平臺(tái)。中國(guó)目前已經(jīng)在AI處理器和模型訓(xùn)練/推理平臺(tái)取得了一定的成績(jī)。 3 月末,中國(guó)開源項(xiàng)目在AI數(shù)據(jù)平臺(tái)的核心部件——向量搜索引擎方面也迎來(lái)了好消息。中國(guó)開源

    ......

    111本文由站長(zhǎng)之家用戶投稿發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)查看原文,獲取內(nèi)容詳情。

    推廣

    特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))均為站長(zhǎng)傳媒平臺(tái)用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù),對(duì)本頁(yè)面內(nèi)容所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任,相關(guān)信息僅供參考。站長(zhǎng)之家將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。任何單位或個(gè)人認(rèn)為本頁(yè)面內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),可及時(shí)向站長(zhǎng)之家提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明(點(diǎn)擊查看反饋聯(lián)系地址)。本網(wǎng)站在收到上述法律文件后,將會(huì)依法依規(guī)核實(shí)信息,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    • 相關(guān)推薦
    • AI日?qǐng)?bào):小米首個(gè)推理大模型開源Xiaomi MiMo;快手上線AI筆記工具“喵記多”;騰訊拆分AI團(tuán)隊(duì)

      本文匯總了AI領(lǐng)域最新動(dòng)態(tài):1)小米開源70億參數(shù)大模型Xiaomi MiMo,在數(shù)學(xué)推理和代碼競(jìng)賽中超越OpenAI和阿里模型;2)快手推出AI筆記工具"喵記多",簡(jiǎn)化筆記管理;3)Luma AI發(fā)布電影級(jí)鏡頭控制API,降低視頻生成門檻;4)騰訊重組AI團(tuán)隊(duì),加大語(yǔ)言模型研發(fā)投入;5)Anthropic為Claude引入新語(yǔ)音"Glassy";6)谷歌NotebookLM新增50+語(yǔ)言音頻概述功能;7)xAI將發(fā)布Grok3.5模型;8)Meta推出獨(dú)立AI助手應(yīng)用挑戰(zhàn)ChatGPT;9)OpenAI緊急修復(fù)GPT-4o"諂媚"問(wèn)題;10)Mac本地AI助手Simular升級(jí)隱私保護(hù);11)CameraBench項(xiàng)目幫助AI理解鏡頭運(yùn)動(dòng);12)谷歌推出個(gè)性化語(yǔ)言學(xué)習(xí)AI工具。

    • DeepSeek領(lǐng)航大模型普惠化浪潮,xAI/微美全息加速開源AI布局打造新格局

      DeepSeek 作為當(dāng)前最受關(guān)注的大模型之一,憑借其技術(shù)創(chuàng)新正在加速 AI 普惠化進(jìn)程。根據(jù)機(jī)構(gòu)新報(bào)告顯示,DeepSeek已經(jīng)成為全球增長(zhǎng)最快的AI工具,其每月新增網(wǎng)站訪問(wèn)量已經(jīng)超過(guò)OpenAI的ChatGPT。DeepSeek市場(chǎng)份額全球第三目前,DeepSeek市場(chǎng)份額6.58%,僅次于ChatGPT和Canva。DeepSeek是繼ChatGPT之后的又一現(xiàn)象級(jí)AI產(chǎn)品,它的市場(chǎng)份額從2.34%快速增長(zhǎng)至6.58%,展現(xiàn)出強(qiáng)勁的增長(zhǎng)態(tài)勢(shì)。全球著名?

    • 提升大模型自動(dòng)修Bug能力 豆包正式開源首個(gè)多語(yǔ)言類SWE數(shù)據(jù)

      今日,字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)宣布,正式開源首個(gè)多語(yǔ)言類SWE數(shù)據(jù)集Multi-SWE-bench,可用于評(píng)估和提升大模型自動(dòng)修Bug”能力。在SWE-bench基礎(chǔ)上,Multi-SWE-bench首次覆蓋Python之外的7種主流編程語(yǔ)言,是真正面向全棧工程”的評(píng)測(cè)基準(zhǔn)。相比于以往聚焦Python的單語(yǔ)言任務(wù),Multi-SWE-bench更貼近現(xiàn)實(shí)中的多語(yǔ)言開發(fā)場(chǎng)景,也更能反映當(dāng)前模型在自動(dòng)化軟件工程”方向上的實(shí)際能力邊界。

    • 剛剛,OpenAI開源PaperBench,重塑頂級(jí)AI Agent評(píng)測(cè)

      今天凌晨1點(diǎn),OpenAI開源了一個(gè)全新的AIAgent評(píng)測(cè)基準(zhǔn)——PaperBench。這個(gè)基準(zhǔn)主要考核智能體的搜索、整合、執(zhí)行等能力,需要對(duì)2024年國(guó)際機(jī)器學(xué)習(xí)大會(huì)上頂尖論文的復(fù)現(xiàn),包括對(duì)論文內(nèi)容的理解、代碼編寫以及實(shí)驗(yàn)執(zhí)行等方面的能力。目前智能體的能力還無(wú)法超越人類。

    • AI Agent大變天!谷歌開源A2A,一夜改變智能體交互

      谷歌在GoogleCloudNext25大會(huì)上,開源了首個(gè)標(biāo)準(zhǔn)智能體交互協(xié)議——Agent2AgentProtocol。A2A將徹底打破系統(tǒng)孤島,對(duì)智能體的能力、跨平臺(tái)、執(zhí)行效率產(chǎn)生質(zhì)的改變,支持Atlassian、Box、Cohere、Intuit、Langchain、MongoDB、PayPal、Salesforce、SAP、ServiceNow、UKG和Workday等主流企業(yè)應(yīng)用平臺(tái)。通過(guò)A2A協(xié)議,MongoDB可以使其數(shù)據(jù)庫(kù)服務(wù)與智能Agent相結(jié)合,實(shí)現(xiàn)更高效的數(shù)據(jù)管理和自動(dòng)化數(shù)據(jù)處理。

    • 全國(guó)首個(gè)!深開鴻發(fā)布基于開源鴻蒙機(jī)器人操作系統(tǒng)M-Robots OS

      今日,深開鴻宣布,正式發(fā)布全國(guó)首個(gè)基于開源鴻蒙的分布式異構(gòu)多機(jī)協(xié)同機(jī)器人操作系統(tǒng)M-RobotsOS1.0。深開鴻C(jī)EO王成錄在發(fā)布會(huì)上指出:操作系統(tǒng)是機(jī)器人產(chǎn)業(yè)的魂,決定了機(jī)器人的智能化水平和生態(tài)擴(kuò)展性。王成錄強(qiáng)調(diào),我們的目標(biāo)不是替代現(xiàn)有系統(tǒng)是面向未來(lái)多機(jī)協(xié)同場(chǎng)景,構(gòu)建全新架構(gòu)。

    • 康佳集團(tuán)深化數(shù)字生態(tài)布局 家庭場(chǎng)景大數(shù)據(jù)平臺(tái)重塑智能家電體驗(yàn)

      康佳集團(tuán)近期以數(shù)字技術(shù)為核心驅(qū)動(dòng),在智能家電、半導(dǎo)體及白電領(lǐng)域取得多項(xiàng)突破。旗下易平方公司打造的“家庭場(chǎng)景大數(shù)據(jù)應(yīng)用服務(wù)平臺(tái)”入選重慶市數(shù)字經(jīng)濟(jì)產(chǎn)業(yè)發(fā)展試點(diǎn)示范項(xiàng)目。在半導(dǎo)體技術(shù)商業(yè)化進(jìn)程中,重慶康佳光電還實(shí)現(xiàn)關(guān)鍵突破:MicroLED紅光芯片鍵合良率提升至98%,帶動(dòng)MiniLED直顯屏單月出貨量環(huán)比明顯增長(zhǎng)。其參與編制的《Mini/Micro LED顯示屏Mura缺陷評(píng)價(jià)方?

    • AI日?qǐng)?bào):Kimi全新音頻基礎(chǔ)模型Kimi-Audio;階躍星辰開源圖像編輯模型Step1X-Edit;?夸克AI超級(jí)框上線 “拍照問(wèn)夸克”

      本期AI日?qǐng)?bào)聚焦多項(xiàng)AI技術(shù)突破與應(yīng)用:1)Moonshot AI推出開源音頻模型Kimi-Audio,基于13億小時(shí)訓(xùn)練數(shù)據(jù),支持語(yǔ)音識(shí)別等任務(wù);2)階躍星辰開源圖像編輯模型Step1X-Edit,展現(xiàn)強(qiáng)大生成能力;3)夸克AI上線"拍照問(wèn)夸克"功能,實(shí)現(xiàn)視覺(jué)問(wèn)答;4)蘋果iOS18.5將在中國(guó)推送,帶來(lái)智能功能;5)谷歌發(fā)布601個(gè)生成式AI應(yīng)用案例,覆蓋多行業(yè);6)微軟推出深度整合Windows的UFO2自動(dòng)化系統(tǒng);7)OpenAI升級(jí)ChatGPT至GPT-4o版本,提升STEM領(lǐng)域能力;8)Ema公司推出高性價(jià)比語(yǔ)言模型EmaFusion;9)Liquid AI發(fā)布面向邊緣設(shè)備的Hyena Edge模型;10)LemonAI推出實(shí)時(shí)音視頻數(shù)字人產(chǎn)品Slice Live。此外,國(guó)內(nèi)方面,智譜與生數(shù)科技達(dá)成戰(zhàn)略合作推動(dòng)大模型發(fā)展,寶馬中國(guó)宣布新車將接入DeepSeek技術(shù)。

    • 英偉達(dá)開源15T數(shù)據(jù)集:32萬(wàn)個(gè)機(jī)器人訓(xùn)練軌跡

      全球AI領(lǐng)導(dǎo)者英偉達(dá)開源了,用于實(shí)體機(jī)器人和自動(dòng)化駕駛的超大訓(xùn)練數(shù)據(jù)合集——NVIDIAPhysicalAIDataset。這個(gè)數(shù)據(jù)集一共15T,涵蓋了超過(guò)320,000個(gè)機(jī)器人訓(xùn)練軌跡,以及多達(dá)1,000個(gè)通用場(chǎng)景描述包括一個(gè)SimReady集合。英偉達(dá)表示,未來(lái)將繼續(xù)擴(kuò)展PhysicalAIDataset,將其建設(shè)成世界最大、統(tǒng)一的開源數(shù)據(jù)集,可用于AI模型、醫(yī)療、自動(dòng)化駕駛等不同領(lǐng)域,加速AI、實(shí)體機(jī)器人的訓(xùn)練效?

    • 秒殺同行!Kimi開源全新音頻基礎(chǔ)模型,橫掃十多項(xiàng)基準(zhǔn)測(cè)試,總體性能第一

      Kimi-Audio是一款開源的通用音頻基礎(chǔ)模型,在語(yǔ)音識(shí)別、音頻理解、音頻轉(zhuǎn)文本、語(yǔ)音對(duì)話等任務(wù)中表現(xiàn)優(yōu)異。該模型采用集成式架構(gòu)設(shè)計(jì),包含音頻分詞器、音頻大模型和音頻去分詞器三大核心組件,支持多模態(tài)輸入處理。在十余項(xiàng)音頻基準(zhǔn)測(cè)試中,Kimi-Audio均取得領(lǐng)先性能,如LibriSpeech ASR測(cè)試WER僅1.28%,VocalSound測(cè)試達(dá)94.85%。模型使用1300萬(wàn)小時(shí)多語(yǔ)言音頻數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,并構(gòu)建了自動(dòng)處理流水線生成高質(zhì)量訓(xùn)練數(shù)據(jù)。評(píng)估結(jié)果顯示,Kimi-Audio在語(yǔ)音識(shí)別、音樂(lè)理解、語(yǔ)音情感分析等任務(wù)上全面超越同類模型,在OpenAudioBench和VoiceBench對(duì)話測(cè)試中也表現(xiàn)最佳。目前模型代碼、檢查點(diǎn)和評(píng)估工具包已在GitHub開源。