蘋果公司的人工智能研究人員表示,在將大型語言模型(LLMs)部署到 iPhone 和其他內存有限的蘋果設備上取得了關鍵性突破。他們發明了一種創新的閃存利用技術,可有效應對內存限制問題。
LLMs 與內存限制
像 ChatGPT 和 Claude 這樣基于 LLM 的聊天機器人,通常需要大量的數據和內存才能運行。對于內存容量有限的設備如 iPhone,這是一個挑戰。蘋果研究人員開發了一種新技術,利用閃存(即存儲您的應用和照片的內存)來存儲 AI 模型的數據。
閃存中的 AI
在名為「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」的新研究論文中,作者指出移動設備中的閃存比傳統用于運行 LLMs 的 RAM 更為豐富。他們的方法巧妙地繞過了這一限制,使用了兩種關鍵技術來最小化數據傳輸并最大化閃存吞吐量:
- 窗口化技術: 這可以看作是一種回收方法。AI 模型不是每次都加載新數據,而是重用它已經處理的一些數據。這減少了對持續內存提取的需求,使過程更快更順暢。
- 行列捆綁技術: 這種技術類似于一次閱讀更大的數據塊,而不是一次一個單詞。通過更高效地分組數據,可以更快地從閃存中讀取數據,加快 AI 理解和生成語言的能力。
這些方法的結合使 AI 模型能夠運行的規模達到 iPhone 可用內存的兩倍。據論文稱,這將使標準處理器(CPU)上的速度提高 4-5 倍,圖形處理器(GPU)上的速度提高令人印象深刻的 20-25 倍。作者寫道:「這一突破對于在資源有限的環境中部署先進的 LLMs 至關重要,從而擴大了它們的應用范圍和可及性!
iPhone 上的更快 AI
這一 AI 效率的突破為未來的 iPhone 開啟了新的可能性,如更先進的 Siri 功能、實時語言翻譯和在攝影和增強現實中的復雜 AI 驅動功能。此技術還為 iPhone 上運行復雜的 AI 助手和聊天機器人鋪平了道路,據悉蘋果公司已在研究這方面的應用。
蘋果公司正在開發自己的生成式 AI 模型「Ajax」,據稱在設計上能與 OpenAI 的 GPT-3 和 GPT-4 相媲美。Ajax 運行在 2000 億參數上,表明其在語言理解和生成方面的高度復雜性和能力。內部稱為「Apple GPT」的 Ajax 旨在統一蘋果公司的機器學習開發,表明了將 AI 更深入地整合到蘋果生態系統中的更廣泛戰略。
據最新報道,Ajax 被認為比早期的 ChatGPT 3.5 更有能力。然而,也有人認為,截至 2023 年 9 月,OpenAI 的新模型可能已超越了 Ajax 的能力。
根據《The Information》和分析師 Jeff Pu 的說法,蘋果預計將在 2024 年晚些時候在 iPhone 和 iPad 上推出某種生成式 AI 功能,屆時將發布 iOS 18。據稱,蘋果計劃提供云端 AI 和設備上 AI 處理的結合。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。