站長(zhǎng)之家(ChinaZ.com) 12 月 22 日消息:蘋(píng)果公司的人工智能研究人員表示,在將大型語(yǔ)言模型(LLMs)部署到 iPhone 和其他內(nèi)存有限的蘋(píng)果設(shè)備上取得了關(guān)鍵性突破。他們發(fā)明了一種創(chuàng)新的閃存利用技術(shù),可有效應(yīng)對(duì)內(nèi)存限制問(wèn)題。
LLMs 與內(nèi)存限制
像 ChatGPT 和 Claude 這樣基于 LLM 的聊天機(jī)器人,通常需要大量的數(shù)據(jù)和內(nèi)存才能運(yùn)行。對(duì)于內(nèi)存容量有限的設(shè)備如 iPhone,這是一個(gè)挑戰(zhàn)。蘋(píng)果研究人員開(kāi)發(fā)了一種新技術(shù),利用閃存(即存儲(chǔ)您的應(yīng)用和照片的內(nèi)存)來(lái)存儲(chǔ) AI 模型的數(shù)據(jù)。
閃存中的 AI
在名為「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」的新研究論文中,作者指出移動(dòng)設(shè)備中的閃存比傳統(tǒng)用于運(yùn)行 LLMs 的 RAM 更為豐富。他們的方法巧妙地繞過(guò)了這一限制,使用了兩種關(guān)鍵技術(shù)來(lái)最小化數(shù)據(jù)傳輸并最大化閃存吞吐量:
- 窗口化技術(shù): 這可以看作是一種回收方法。AI 模型不是每次都加載新數(shù)據(jù),而是重用它已經(jīng)處理的一些數(shù)據(jù)。這減少了對(duì)持續(xù)內(nèi)存提取的需求,使過(guò)程更快更順暢。
- 行列捆綁技術(shù): 這種技術(shù)類似于一次閱讀更大的數(shù)據(jù)塊,而不是一次一個(gè)單詞。通過(guò)更高效地分組數(shù)據(jù),可以更快地從閃存中讀取數(shù)據(jù),加快 AI 理解和生成語(yǔ)言的能力。
這些方法的結(jié)合使 AI 模型能夠運(yùn)行的規(guī)模達(dá)到 iPhone 可用內(nèi)存的兩倍。據(jù)論文稱,這將使標(biāo)準(zhǔn)處理器(CPU)上的速度提高 4-5 倍,圖形處理器(GPU)上的速度提高令人印象深刻的 20-25 倍。作者寫(xiě)道:「這一突破對(duì)于在資源有限的環(huán)境中部署先進(jìn)的 LLMs 至關(guān)重要,從而擴(kuò)大了它們的應(yīng)用范圍和可及性?!?/p>
iPhone 上的更快 AI
這一 AI 效率的突破為未來(lái)的 iPhone 開(kāi)啟了新的可能性,如更先進(jìn)的 Siri 功能、實(shí)時(shí)語(yǔ)言翻譯和在攝影和增強(qiáng)現(xiàn)實(shí)中的復(fù)雜 AI 驅(qū)動(dòng)功能。此技術(shù)還為 iPhone 上運(yùn)行復(fù)雜的 AI 助手和聊天機(jī)器人鋪平了道路,據(jù)悉蘋(píng)果公司已在研究這方面的應(yīng)用。
蘋(píng)果公司正在開(kāi)發(fā)自己的生成式 AI 模型「Ajax」,據(jù)稱在設(shè)計(jì)上能與 OpenAI 的 GPT-3 和 GPT-4 相媲美。Ajax 運(yùn)行在 2000 億參數(shù)上,表明其在語(yǔ)言理解和生成方面的高度復(fù)雜性和能力。內(nèi)部稱為「Apple GPT」的 Ajax 旨在統(tǒng)一蘋(píng)果公司的機(jī)器學(xué)習(xí)開(kāi)發(fā),表明了將 AI 更深入地整合到蘋(píng)果生態(tài)系統(tǒng)中的更廣泛戰(zhàn)略。
據(jù)最新報(bào)道,Ajax 被認(rèn)為比早期的 ChatGPT 3.5 更有能力。然而,也有人認(rèn)為,截至 2023 年 9 月,OpenAI 的新模型可能已超越了 Ajax 的能力。
根據(jù)《The Information》和分析師 Jeff Pu 的說(shuō)法,蘋(píng)果預(yù)計(jì)將在 2024 年晚些時(shí)候在 iPhone 和 iPad 上推出某種生成式 AI 功能,屆時(shí)將發(fā)布 iOS 18。據(jù)稱,蘋(píng)果計(jì)劃提供云端 AI 和設(shè)備上 AI 處理的結(jié)合。
(舉報(bào))