中文字幕欧美日韩|日韩性色一区二区三区|精品久久久久久久久久岛国|一区二区国产盗摄精品

    <td id="h1kkc"><tr id="h1kkc"></tr></td><noscript id="h1kkc"><tbody id="h1kkc"></tbody></noscript>
    <rp id="h1kkc"></rp>
    首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > ChatGPT最新資訊  > 正文

    AI視野:ChatGPT模型大更新;阿里云發(fā)布多模態(tài)大模型;Runway視頻生成輸給Pixverse;百度推多模態(tài)模型UNIMO-G

    2024-01-26 15:35 · 稿源:站長(zhǎng)之家

    歡迎來(lái)到【AI視野】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。

    新鮮AI產(chǎn)品點(diǎn)擊了解https://top.aibase.com/

    ??????AI應(yīng)用

    ChatGPT模型大更新

    【AiBase提要:】

    ?發(fā)布了兩款全新大、小文本嵌入模型,

    ?全新的GPT-4Turbo模型(修復(fù)懶惰行為)和GPT-3.5Turbo模型,3.5還降價(jià)。

    ?更新了最新的審核模型text-moderation-007

    ?還有可以單獨(dú)控制API訪問的權(quán)限,不怕API被盜了

    詳情:http://www.xwmpso.com/2024/0126/1593267.shtml

    Runway竟然完敗Pixverse?3款A(yù)I視頻生成模型測(cè)試

    QQ截圖20240126093410.png

    【AiBase提要:】

    ?? Pixverse和Pika的視頻生成質(zhì)量接近

    ?? Pixverse模型最平衡,能處理運(yùn)動(dòng)幅度和保持一致性

    ?? Pika在動(dòng)漫和2.5D風(fēng)格上有優(yōu)勢(shì)

    Pixverse產(chǎn)品地址:https://top.aibase.com/tool/pixverse

    AI圖像高清修復(fù)工具SUPIR 可根據(jù)文本提示智能修復(fù)

    image.png

    【AiBase提要:】

    ? SUPIR通過(guò)增加模型規(guī)模提升圖像修復(fù)能力

    ? SUPIR主要功能包括圖像修復(fù)和文本引導(dǎo)的修復(fù)

    ? 在多個(gè)圖像修復(fù)任務(wù)中表現(xiàn)出色

    項(xiàng)目頁(yè)地址:https://top.aibase.com/tool/supir

    阿里云發(fā)布多模態(tài)大模型Qwen-VL-Max版本 性能比肩GPT-4V

    微信截圖_20240126110056.png

    【AiBase提要:】

    ? Qwen-VL-Max模型在視覺推理方面展現(xiàn)出卓越的能力

    ? 在基礎(chǔ)能力方面,Qwen-VL-Max能夠準(zhǔn)確描述和識(shí)別圖片信息

    ? Qwen-VL-Max在文檔分析和圖像文本處理方面取得顯著進(jìn)步

    孟子大模型開放服務(wù)上線四款大模型產(chǎn)品

    【AiBase提要:】

    ? 孟子大模型包括輕量、標(biāo)準(zhǔn)、金融和編程

    ? 支持多種任務(wù),如聊天對(duì)話、文案寫作

    ? 專為金融編程任務(wù)優(yōu)化,新增軟件開發(fā)需求文檔寫作能力

    體驗(yàn)地址:https://www.langboat.com/product/mchat

    AI應(yīng)用自動(dòng)化構(gòu)建平臺(tái)VectorShift 通過(guò)無(wú)代碼界面構(gòu)建自動(dòng)化工作流

    【AiBase提要:】

    ? 利用人工智能搜索知識(shí)庫(kù)、生成文檔并部署聊天機(jī)器人和助手

    ? 支持拖放支持組件完成任務(wù),創(chuàng)建數(shù)據(jù)知識(shí)庫(kù)

    ? 提供Python SDK,支持直接訪問平臺(tái)功能

    百度推多模態(tài)模型UNIMO-G 支持還原圖片ID

    【AiBase提要:】

    ?? 傳統(tǒng)模型主要根據(jù)簡(jiǎn)潔的文本提示生成圖像

    ?? UNIMO-G包含多模態(tài)大語(yǔ)言模型和基于編碼的多模態(tài)輸入生成圖像的條件去噪擴(kuò)散網(wǎng)絡(luò)

    ?? UNIMO-G在文本到圖像生成和零樣本主題驅(qū)動(dòng)合成方面表現(xiàn)出色

    項(xiàng)目地址:https://top.aibase.com/tool/unimo-g

    谷歌推出AMIE模型,用大模型為病人提供醫(yī)療咨詢

    【AiBase提要:】

    ?? 醫(yī)療資源匱乏,患者與醫(yī)生深度咨詢不易

    ?? 谷歌推出醫(yī)療咨詢大語(yǔ)言模型AMIE

    ?? AMIE在多方面優(yōu)于初級(jí)保健醫(yī)生

    論文地址:https://arxiv.org/abs/2401.05654

    ??????AI新鮮事

    前谷歌AI工程師徐鵬領(lǐng)導(dǎo)螞蟻AGI部門

    【AiBase提要:】

    ?? 徐鵬加入螞蟻集團(tuán),領(lǐng)導(dǎo)AI部門

    ?? 螞蟻集團(tuán)設(shè)立AI創(chuàng)新研發(fā)與應(yīng)用部門NextEvo

    ?? 徐鵬將推動(dòng)螞蟻集團(tuán)在AI領(lǐng)域取得突破

    OpenAI 首席執(zhí)行官將會(huì)見三星電子和 SK 海力士高管

    【AiBase提要:】

    ?? 探討 AI 技術(shù)在芯片領(lǐng)域的應(yīng)用

    ?? 三星電子和 SK 海力士作為全球領(lǐng)先的芯片制造商

    ?? OpenAI首席執(zhí)行官SamAltman計(jì)劃訪問首爾

    IBM 股價(jià)飆升,人工智能需求推動(dòng)收入超預(yù)期

    【AiBase提要:】

    ?? IBM營(yíng)收增長(zhǎng)了4%,人工智能和混合云需求增加

    ?? 人工智能產(chǎn)品帶來(lái)的收入將會(huì)逐年增加

    ?? 咨詢業(yè)務(wù)增長(zhǎng)最快,生成式人工智能的業(yè)務(wù)量翻了一番

    全世界機(jī)器人共用一個(gè)大腦,谷歌DeepMind已經(jīng)完成了第一

    圖片

    【AiBase提要:】

    ?? 生成式人工智能發(fā)展的核心關(guān)鍵詞是「大」

    ??34個(gè)機(jī)器人實(shí)驗(yàn)室共同啟動(dòng)了RT-X項(xiàng)目

    ?? RT-X 模型能借鑒其他機(jī)器人的經(jīng)驗(yàn),提高不同環(huán)境中的機(jī)器人魯棒性。

    正交微調(diào)解鎖文本創(chuàng)建逼真圖像新能力 實(shí)現(xiàn)對(duì)生成圖像的精確控制

    【AiBase提要:】

    ?? 正交微調(diào)增強(qiáng)模型控制能力

    ?? 使用正交變換方法保持模型語(yǔ)義生成能力

    ?? 在生成質(zhì)量和效率方面表現(xiàn)出色

    舉報(bào)

    • 相關(guān)推薦
    • 1000萬(wàn)上下文!新開源多模態(tài)大模型,單個(gè)GPU就能運(yùn)行

      今年2月初,谷歌發(fā)布的Gemini2.0Pro支持200萬(wàn)上下文,震驚了整個(gè)大模型領(lǐng)域。僅過(guò)了2個(gè)月,Meta最新開源的Llama4Scout就將上下文擴(kuò)展至1000萬(wàn),整整提升了5倍開啟千萬(wàn)級(jí)時(shí)代。根據(jù)實(shí)驗(yàn)數(shù)據(jù)顯示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等測(cè)試的數(shù)據(jù)比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

    • 可靈AI發(fā)布全新2.0模型:上線多模態(tài)視頻編輯功能

      快科技4月16日消息,據(jù)報(bào)道,可靈AI在北京舉行靈感成真”2.0模型發(fā)布會(huì),正式發(fā)布可靈2.0視頻生成模型及可圖2.0圖像生成模型。據(jù)介紹,可靈2.0模型在動(dòng)態(tài)質(zhì)量、語(yǔ)義響應(yīng)、畫面美學(xué)等維度保持領(lǐng)先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術(shù)風(fēng)格表現(xiàn)等方面顯著提升。3月27日,全球AI基準(zhǔn)測(cè)試機(jī)構(gòu)Artificial Analysis發(fā)布了最新的全球視頻生成大模型榜單,快手可靈1.6pro(高品質(zhì)模

    • 多模態(tài)和Agent成為大廠AI的新賽 點(diǎn)

      這是《窄播Weekly》的第52期,本期我們關(guān)注的商業(yè)動(dòng)態(tài)是:當(dāng)大廠的AI競(jìng)爭(zhēng)策略開始傾斜向應(yīng)用場(chǎng)景,多模態(tài)能力和代理執(zhí)行成為兩個(gè)焦點(diǎn)。大模型落地C端場(chǎng)景的核心,就是讓大模型的能力越來(lái)越接近人。沿著這個(gè)主旋律,可以劃分出兩個(gè)進(jìn)化方向:一個(gè)是持續(xù)降低用戶與大模型進(jìn)行有效溝通的難度;另一個(gè)則是讓大模型具備執(zhí)行更復(fù)雜任務(wù)的能力。前者的實(shí)現(xiàn),需要給到大模型多

    • 多模態(tài)和Agent成為大廠AI的新賽點(diǎn)

      本期《窄播Weekly》聚焦AI大廠競(jìng)爭(zhēng)策略向應(yīng)用場(chǎng)景傾斜的趨勢(shì),重點(diǎn)分析了多模態(tài)能力和代理執(zhí)行兩大發(fā)展方向。文章指出,大模型落地的核心在于讓人機(jī)交互更自然,具體表現(xiàn)為:1)通過(guò)多模態(tài)技術(shù)降低用戶使用門檻,如阿里夸克新推出的"拍照問夸克"功能;2)通過(guò)代理執(zhí)行提升復(fù)雜任務(wù)處理能力,如字節(jié)、百度等推出的通用Agent產(chǎn)品。國(guó)內(nèi)外廠商路徑差異明顯:國(guó)?

    • 剛剛,商湯發(fā)布第六代大模型:6000億參數(shù)多模態(tài)MoE,中長(zhǎng)視頻直接可推理

      現(xiàn)在的國(guó)產(chǎn)AI應(yīng)用,一口氣看好幾分鐘的視頻,都可以直接做推理和解析了!瞧~只需“喂”上一段柯南片段,AI就搖身一變成“名偵探”做剖析:它會(huì)對(duì)整個(gè)視頻的內(nèi)容先做一個(gè)總結(jié),再按照秒級(jí),對(duì)視頻片段做內(nèi)容上的推演。商湯科技聯(lián)合創(chuàng)始人楊帆認(rèn)為:銀河通用合伙人、大模型負(fù)責(zé)人張直政表示:除此之外,上海交通大學(xué)副教授閆維新對(duì)這個(gè)問題的看法是:總言之,商湯作為國(guó)?

    • 開源即支持!基于昇騰MindSpeed MM玩轉(zhuǎn)InternVL3多模態(tài)理解最新模型

      多模態(tài)理解領(lǐng)域當(dāng)前已成了各家AI大模型公司“軍備競(jìng)賽”的關(guān)鍵點(diǎn)之一,國(guó)內(nèi)外知名AI大模型公司都爭(zhēng)相通過(guò)發(fā)布最先進(jìn)的多模態(tài)大語(yǔ)言模型展現(xiàn)其在多模態(tài)理解領(lǐng)域的前沿能力。近期,上海AI實(shí)驗(yàn)室推出了其最新的多模態(tài)大語(yǔ)言模型InternVL3 系列,相比上一代InternVL2. 5 模型,該模型展現(xiàn)出卓越的多模態(tài)感知和推理能力,同時(shí)進(jìn)一步擴(kuò)展了其工具使用、GUI代理、工業(yè)圖像分析等

    • IQ 過(guò)AI 模型名單發(fā)布ChatGPT、Deepseek等上榜

      人工智能IQ哪家強(qiáng)?o3 智商高達(dá) 132、Gemini 2.5 Pro Exp. 拿下 128 分、Claude 憑借 3.7 Sonnet Extended 位列第四、Deepsee R 1……

    • AI日?qǐng)?bào):阿里騰訊全面支持MCP協(xié)議;階躍星辰多模態(tài)推理模型Step-R1-V-Mini;美圖WHEE圖像生成模型Miracle F1

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、阿里巴巴已宣布全面支持MCP協(xié)議騰訊緊隨其后近日,中國(guó)人工智能領(lǐng)域迎來(lái)技術(shù)標(biāo)準(zhǔn)的變革,ModelContextProtocol成為國(guó)內(nèi)AI生態(tài)的事實(shí)標(biāo)準(zhǔn)。12.英偉達(dá)發(fā)布Llama3.1NemotronUltra253B,性能?

    • UniToken:多模態(tài)AI的“全能選手”,一次編碼搞定圖文理解與圖像生成

      復(fù)旦大學(xué)與美團(tuán)研究者提出UniToken框架,首次在統(tǒng)一模型中實(shí)現(xiàn)圖文理解與生成任務(wù)的"雙優(yōu)表現(xiàn)"。該方案融合連續(xù)和離散視覺編碼,有效解決了傳統(tǒng)多模態(tài)建模中的"任務(wù)干擾"和"表示割裂"問題。通過(guò)三階段訓(xùn)練策略(視覺語(yǔ)義對(duì)齊、多任務(wù)聯(lián)合訓(xùn)練、指令強(qiáng)化微調(diào)),UniToken在多個(gè)基準(zhǔn)測(cè)試中性能超越專用模型。其創(chuàng)新性體現(xiàn)在:1)統(tǒng)一的雙邊視覺編碼

    • 業(yè)界唯一!百度網(wǎng)盤上線多模態(tài)AI筆記 效率提升10倍

      快科技5月2日消息,過(guò)往,用戶在通過(guò)視頻學(xué)習(xí)并記錄筆記時(shí),總免不了要不停切換平臺(tái)軟件,暫停、截屏、記錄、插圖、批注、切換返回視頻過(guò)程繁瑣而低效。為了應(yīng)對(duì)這種情況,百度網(wǎng)盤和百度文庫(kù)聯(lián)合研發(fā)上線了AI筆記”,支持全自動(dòng)學(xué)習(xí)、半自動(dòng)學(xué)習(xí)、輔助學(xué)習(xí)三種模式。如今只要在網(wǎng)盤里面任意打開一個(gè)學(xué)習(xí)視頻,在右側(cè)就能看到AI筆記”功能,用戶可以自主輸入內(nèi)容,也可以讓其直接生成圖文并茂、結(jié)構(gòu)清晰的筆記。而且每個(gè)重要知識(shí)點(diǎn)旁會(huì)有時(shí)間戳,點(diǎn)擊時(shí)間戳即可跳轉(zhuǎn)到視頻中對(duì)應(yīng)位置,實(shí)現(xiàn)視頻和筆記內(nèi)容的順滑關(guān)聯(lián)。此外AI筆記”還可以幫

    熱文

    • 3 天
    • 7天