歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術趨勢、了解創(chuàng)新AI產(chǎn)品應用。
新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/
1、百度文心大模型學習機“小度學習機Z30”發(fā)布
這篇文章介紹了百度旗下的小度科技推出的首款基于文心大模型的學習機Z30,旨在重新定義AI老師,通過先進的AI技術助力孩子主動學習,同時讓家長享受全陪伴的超省心體驗。該學習機擁有出色的視覺體驗和多項先進技術,以及針對多個學習環(huán)節(jié)的全面重構,提供科學、高效的學習方案。AI老師能夠提供豐富的教育內(nèi)容,支持多輪交互和個性化定制,讓學習更加生動有趣和高效有針對性。
【AiBase提要:】
?? 小度Z30學習機采用文心大模型技術,逼真還原課文情景,幫助孩子更好地理解和掌握知識。
????? 小度Z30支持AI師生互動課和課后個性化練習,量身定制學習計劃,實現(xiàn)全科全學段的隨時答疑。
?? AI老師基于文心知識增強的大模型,為孩子提供權威且豐富的教育內(nèi)容,支持多模態(tài)感知和擬人化呈現(xiàn),讓學習更加生動有趣。
2、Open-Sora 1.1發(fā)布 視頻質(zhì)量提升,生成時長延長至21秒
Open-Sora1.1發(fā)布帶來了顯著提升,尤其在視頻生成質(zhì)量和時長方面。新版本模型能生成最長約21秒視頻,使用高質(zhì)量視覺數(shù)據(jù)和字幕訓練,提升對世界運作的理解。CausalVideoVAE架構優(yōu)化提高性能和推理效率。
【AiBase提要:】
?? 視頻生成質(zhì)量和時長提升: 新版本能生成最長約21秒視頻,通過高質(zhì)量視覺數(shù)據(jù)和字幕訓練,提升對世界運作的理解。
?? 高質(zhì)量視覺數(shù)據(jù)和字幕訓練: 使用更高質(zhì)量的視覺數(shù)據(jù)和字幕進行訓練,增強模型對世界運作的理解。
?? CausalVideoVAE架構優(yōu)化: 優(yōu)化后的架構提高了視頻生成的性能和推理效率,與Sora基礎模型性能相似。
詳情鏈接:https://top.aibase.com/tool/open-sora-plan-v1-1-0
在線體驗地址:https://huggingface.co/spaces/LanguageBind/Open-Sora-Plan-v1.1.0
3、Canva上線多個好用功能:文本生成插畫、自動剪輯視頻精華片段
Canva設計平臺最新更新旨在提升專業(yè)團隊和工作空間的吸引力,包括重新設計平臺、推出企業(yè)版、提供AI風格匹配功能等。更新內(nèi)容涵蓋多項功能和改進,使設計工作更高效便捷。
【AiBase提要:】
?? Canva推出企業(yè)版,提供更多協(xié)作和安全性控制。
?? 新增AI風格匹配功能,定制工作區(qū)顯示文件夾。
?? Canva Docs推出建議模式和彩色突出顯示塊,提供編輯建議和強調(diào)文本區(qū)域。
4、超牛ComfyUI節(jié)點AnyNode來了!要啥功能讓AI幫你編寫
AnyNode是ComfyUI中一個令人印象深刻的新節(jié)點,利用了大型語言模型(LLMs)的能力,允許用戶通過輸入提示詞來創(chuàng)建具有特定功能的節(jié)點。它為用戶提供了在ComfyUI中進行多樣化操作的工具,極大地擴展了用戶在創(chuàng)建自定義節(jié)點和工作流時的可能性。對于希望實現(xiàn)高級功能和自動化任務的用戶來說,無疑是一個寶貴的資源。
作者發(fā)布的視頻教程
【AiBase提要:】
?? 功能編寫: 用戶可以根據(jù)要求編寫Python函數(shù),實現(xiàn)任何功能。
?? 靈活性: 用戶可以通過提示詞讓LLM幫助編寫不同類型的節(jié)點,如文本總結、顏色通道調(diào)整、Ins濾鏡效果等。
?? 與ComfyUI的兼容性: AnyNode作為ComfyUI中的節(jié)點,可以與其他節(jié)點配合使用,鏈接到所需的輸出格式節(jié)點。
詳情鏈接:https://top.aibase.com/tool/anynode
5、ChatTTS:一個專為對話場景設計的語音生成模型
ChatTTS是一個專為對話場景設計的語音生成模型,支持中文和英文,通過大量數(shù)據(jù)訓練,提供高質(zhì)量和自然度的語音合成。項目團隊計劃開源一個基礎模型,注重模型的可控性和安全性。用戶在使用ChatTTS時需注意免責聲明,開源模型將為社區(qū)帶來新的學習和創(chuàng)新機會。
【AiBase提要:】
?? 應用場景廣泛:ChatTTS適用于大型語言模型助手的對話任務、對話語音和視頻介紹,提供自然流暢的交互體驗。
?? 多語言支持:模型支持中文和英文,跨越語言障礙,服務于更廣泛的用戶群體。
?? 開源計劃:團隊計劃開源一個基礎模型,促進學術界和開發(fā)者社區(qū)的研究和開發(fā)。
詳情鏈接:https://www.bilibili.com/video/BV1zn4y1o7iV/
6、視頻修復項目ProPainter發(fā)布Comfyui節(jié)點
這篇文章介紹了ComfyUI_ProPainter_Nodes項目,它是一個專門針對視頻修復的解決方案,基于ProPainter框架并實現(xiàn)了ComfyUI界面。該項目提供了高級視頻幀編輯和無縫的視頻修復任務,為視頻編輯和修復領域帶來了強大的工具。
【AiBase提要:】
?? 基于ProPainter框架,提供高級視頻幀編輯和無縫的視頻修復任務。
?? 提供視頻修復節(jié)點,包括ProPainter節(jié)點和ProPainter Outpainting節(jié)點。
?? 提供詳細的安裝說明、工作流程示例和推薦節(jié)點,豐富的輸入?yún)?shù)和節(jié)點參考信息。
詳情鏈接:https://top.aibase.com/tool/comfyui-propainter-nodes
7、AI可以生成手語手勢視頻了!SignLLM通過文字描述即可生成手語視頻
SignLLM是一項創(chuàng)新的多語言手語模型,為聽力障礙者提供了重要的溝通工具,推動了人工智能在語言理解和生成領域的研究。它通過文字描述生成手語視頻,促進信息的無障礙交流。
【AiBase提要:】
?? 文本到手語視頻轉(zhuǎn)換:SignLLM模型能將文本轉(zhuǎn)化為手語手勢視頻,直觀易懂。
?? 支持多種手語:包括美國手語(ASL)、德國手語(GSL)等八種手語,適用性廣泛。
?? 首創(chuàng)多語言手語數(shù)據(jù)集:引入Prompt2Sign數(shù)據(jù)集,對模型訓練和發(fā)展至關重要。
詳情鏈接:https://top.aibase.com/tool/signllm
8、降噪黑科技Look Once to Hear!只需看一眼說話的人 除了他以外的聲音就消失了
這篇文章介紹了一種先進的降噪耳機技術“Look Once to Hear”,通過用戶的視覺輸入來控制聲音的放大或消除。這項技術在嘈雜環(huán)境中提供了專注和便利,讓用戶能夠清晰聽到目標說話者的聲音??赡芙Y合了人工智能、機器學習和聲音處理算法,對聽力障礙者尤其有用。
【AiBase提要:】
?? 視覺控制: 用戶只需短暫看向想要聆聽的說話者,耳機便能識別并放大該說話者的聲音。
?? 環(huán)境適應性: 適用于嘈雜環(huán)境,幫助用戶在街道、咖啡館等場合中清晰聽到目標說話者的聲音。
?? 移動中使用: 即使用戶在移動中,耳機能持續(xù)追蹤并播放目標說話者的語音,提供專注和便利。
詳情鏈接:https://top.aibase.com/tool/lookoncetohear
9、Meta被曝使用Instagram等照片訓練AI模型引發(fā)隱私爭議
這篇文章揭露了Meta利用Instagram和Facebook用戶照片訓練AI模型的隱私爭議。用戶隱私受到嚴重侵犯,數(shù)據(jù)隱私搜集條例被嚴重違反。Meta聲稱用戶可以退出數(shù)據(jù)搜集模式,但之前搜集的數(shù)據(jù)仍可能保存在AI模型中,引發(fā)關注和擔憂。在數(shù)據(jù)隱私和保護方面,企業(yè)應加強合規(guī)措施,確保用戶個人信息得到妥善處理和保護。
【AiBase提要:】
?? Meta使用用戶照片訓練AI模型,違反數(shù)據(jù)隱私搜集條例
?? 用戶隱私受到侵犯,引發(fā)廣泛關注
? 用戶可以退出數(shù)據(jù)搜集模式,但之前搜集的數(shù)據(jù)仍可能保存在AI模型中
10、比對口型還牛!InstructAvatar:實現(xiàn)文字生成指定面部的表情和動作
InstructAvatar 是一項最新的對話形象生成模型,通過文本引導方法實現(xiàn)了對情感和面部動作的細粒度控制,提升了虛擬形象的互動性和泛化能力。該模型在細粒度情感控制、口型同步質(zhì)量和自然性方面優(yōu)于現(xiàn)有方法,能指定面部的表情和動作,為生成具有情感表達的2D虛擬形象帶來了突破性進展。
【AiBase提要:】
?? InstructAvatar 實現(xiàn)了對情感和面部動作的細粒度控制,提升了虛擬形象的互動性和泛化能力。
?? 實驗結果顯示,InstructAvatar 在細粒度情感控制、口型同步質(zhì)量和自然性方面優(yōu)于現(xiàn)有方法,能指定面部的表情和動作。
?? InstructAvatar 的框架包括變分自動編碼器(VAE)和基于擴散模型的動作生成器,通過自然語言界面實現(xiàn)了對生成視頻的細粒度控制。
詳情鏈接:https://top.aibase.com/tool/instructavatar
11、馬斯克的 xAI 融資 60 億美元,估值達 240 億美元
Elon Musk的xAI公司在B輪融資中成功籌集了60億美元,使公司估值達到240億美元。該公司致力于開發(fā)先進的人工智能系統(tǒng),旨在為全人類提供真實、有能力且最大限度有益的AI技術。最新融資將用于推出首個產(chǎn)品、建設先進基礎設施,并加速未來技術的研發(fā)。
【AiBase提要:】
?? xAI公司在B輪融資中籌集了60億美元,估值達240億美元
?? 最新融資將用于推出首個產(chǎn)品、建設先進基礎設施,并加速未來技術的研發(fā)
?? xAI正在開發(fā)先進的人工智能系統(tǒng),旨在為全人類提供真實、有能力且最大限度有益的AI技術
12、蘋果的“Greymatter 項目”將是普通用戶在日常中可使用的AI工具
蘋果將在即將到來的WWDC上展示其最新的人工智能進展,重點放在普通用戶可以在日常生活中使用的AI工具上。新計劃名為“Project Greymatter”,將整合AI工具到主要應用中,并改進操作系統(tǒng)通知功能。蘋果的AI策略是追趕競爭對手,利用用戶基礎和隱私品牌形象繼續(xù)引領市場。
【AiBase提要:】
?? 蘋果將在WWDC展示最新的人工智能進展,專注于普通用戶可用的AI工具。
?? 蘋果計劃將AI工具整合到主要應用中,改進操作系統(tǒng)通知功能。
?? 蘋果與OpenAI合作開發(fā)聊天機器人,但不會在WWDC展示,而是作為插件顯示在iOS18中。
(舉報)