大模型價格戰,這匹國產黑馬又破紀錄了!最低的GLM-4Flash版本,百萬token價格已經低至0.1元,可以說是擊穿地心。MaaS2.0大升級,讓企業訓練私有模型的成本無限降低。
剛剛,智譜AI開放日上,新一代MaaS平臺2.0正式發布。
這次,GLM技術團隊帶來的是從模型,到成本、企業定制模型,以及業務場景的全面升級。
令人驚喜的是,第四代GLM系列開源模型GLM-49B,官宣開源免費用,還具備了多模態能力。同時,新發布的GLM-4-AIR性能媲美此前的最大基座模型,且價格降至1元/M token。
在5月這波價格戰之后,國內主流大模型API調用已經直降超90%。
需要明白的是,即便token價格無限逼近零,企業需要搞清楚如何用才能發揮巨大業務價值。
否則,再便宜也是無用功。
這次的發布,直接將智譜AI帶入了商業化的最后一站。新一代MaaS平臺出場,便是一個很好的起點。
大模型2024:既要落地,又要開源
如果說2023年是世界發現生成式AI的一年,那么,2024年才是企業真正使用GenAI,并從中獲得商業價值的一年。
麥肯錫最新的全球調查報告稱,65%的受訪者表示企業會經常使用生成式AI。
而這個數字,比十個月前的調查(33%),幾乎翻了一番。
對于企業來說,從選用模型,到以低成本微調部署模型,并擁有靈活可用的全棧工具鏈,是讓GenAI走向落地必不可少的過程。
那些無法「造血」沒有自研模型的公司,就需要通過API、MaaS等平臺,以便讓LLM融入工作流。
比如,法律AI初創公司Harvey,通過OpenAI API,為律師們微調定制了一個「案例法模型」。
而且,經過測試,相較于GPT-4,有97%的律師更喜歡使用Harvey的模型。
而另一個典型的案例是,開源社區借助Llama3之力,已經大大加速GenAI在醫療領域的應用。
在英偉達NIM推理微服務平臺支持下,醫療開發者利用Llama3已經開發出各種聊天助手、健康APP等。
反觀國內,LLM落地究竟有多火,就從卷瘋的token價格戰,可一瞥而知。
API價格,已經卷瘋
而在國產大模型的戰場上,價格戰也在最近卷出新高。
智譜AI開放平臺的新用戶,登錄就送的500萬token直接漲到2500萬token
GLM-3-Turbo每千token從0.005元直降到0.001元
GLM-3Turbo批處理API的價格也直接砍半,每千token砍到0.0005元
隨后,火山引擎祭出更勁爆價格——豆包的企業定價直接擊穿地心,千token低至0.0008元,比整個行業都便宜了99.3%。
智譜AI表示,基于技術突破、效率提升和成本控制三個因素綜合的結果。通過大模型價格調整,更好滿足開發者、客戶需求。
當然,價格戰僅是智譜AI貫徹MaaS戰略中的一個「支點」。
大廠MaaS,如火如荼
大模型沸騰的熱度,也讓國內廠商的MaaS發展如火如荼。
所謂MaaS,即用戶可以直接使用不同參數、不同規格的細分模型,來應對千變萬化的應用場景。
商業鏈路打通后,蜂擁而至的開發者,就會讓應用商店持續繁榮,形成「馬太效應」。
今天的OpenDay上,智譜AI宣布MaaS平臺不僅已經擁有了30萬注冊用戶,而且模型的日均調用量也超過了400億token。
在下面這條曲線中可以看出,在過去6個月中,智譜每日API的消耗量,增長了50倍以上。這正說明:已經有越來越多的企業,已經真正把模型用到了日常工作中。
GLM-4的API調用量則,則達到了90倍的增長。這也正說明,企業已經開始利用模型能力進入深水區,解決一些真正復雜的問題。
而今年,大家開始對于大模型有了一些新的期待——除了更強大、更快的模型,用戶也開始對成本變得敏感。
模型升級:0.1元寫2本《紅樓夢》
如今,平臺上已經全線接入新模型,由ChatGLM3-6B升級為GLM-4-9B,堪稱“最能打的小模型”,已經全面超過了 Llama3-8B-Instruct。
在開放平臺上,它變成GLM-4Flash版本,價格相對于GLM-3-Turbo再次降價10倍,僅僅0.1元,就可以擁有一百萬tokens,足夠寫兩本四大名著了!
如果小模型不能滿足需求,新推出的GLM-4-Air性能更加強大。它的性能跟和此前的GLM-4-0116相仿,但價格僅為前者的百分之一!一百萬tokens,僅需一元。
而許多企業應用到深水區時,對速度也有極高的要求,在此基礎之上,智譜加入了極速版。
效果不變,但推理速度直升162%。71token每秒,相當于每秒可以直出100多個漢字!
并且,GLM-4-0116也同時升級了。
就在今天,智譜推出了GLM-4-0520,它的綜合能力,已經提升了11.9%。
真正做過模型的應用的人,都明白這意味著什么:雖然在數字上看來只是一點點的提升,但這已經進一步提升了模型的天花板,極大擴展應用的范圍,降低應用的成本。
如今,智譜AI已經擁有全模型矩陣。
無論是GLM-4V,還是CogView-3,降價都達到了50%-60%——一張圖只需一毛錢。
開放平臺升級:3步訓出一個私有模型
每個企業都希望構建自己的私有模型。雖然開源生態讓模型訓練門檻大幅降低,但對于絕大多數企業,這個過程依然太復雜。
為此,智譜AI也全面升級了自己的平臺,僅僅三步——準備數據、創建微調任務、部署模型,就能讓企業訓出一個私有模型了!
這個過程中,不需要任何代碼功底。而且,GLM-4全系列模型都支持這樣的微調。
針對企業,智譜AI提供了兩種模式:LoRA微調和全參微調。
LoRA微調,可以說是性價比之王,用更低的成本達到較好的結果。
全參微調,相當于是探索模型微調的極限。
可以看到,訓練成本可以降低到87%。在LoRA微調上,GLM-4每千token只需要四毛錢,GLM-4-Air則只需要三分錢。
比起訓練千億模型動輒需要的多臺A100、A800,顯然門檻已經大幅降低。
而即使是全參微調的情況下,GLM-4每千token也只需要六毛錢,GLM-4-Air則只需要五分錢。
下面這個例子,是一個發生在客戶身上的真實實驗。
客戶需要模型能夠提供某領域專業化的咨詢服務,于是,智譜AI嘗試為客戶做了微調。
他們選擇了6000條語料,折合下來是一千萬token。
訓練后,模型的可用性從60%,直接上升到了89%!
這不是一個簡單的提升,而是一個本質性的飛躍,讓模型從不可用,變成了完全可用,進一步探索了模型使用的邊界。
所以,這次微調的成本是多少?
答案令人驚詫——如果使用LoRA的話,成本僅為300元!即使選擇全參,也只需要500元。
這個具體的demo,可以讓我們深刻地體會到,如今訓練出一個私有模型是多么容易。
另外,在AllTools的API平臺上,智能體的能力能讓大模型從解決一個單一任務,變成處理一個復雜任務。
在企業端,這樣讓使用模型的能力大幅度放開。
從此,每一家企業都能制作自己的智能體,以及智能體平臺。
它可以讓模型更好拆解任務,更好調用上下文function call的能力,還為企業提供了常用的一些智能體插件。
包括代碼解釋器、知識庫檢索增強、函數調用能力等等。
開放平臺地址:bigmodel.cn
國內開源,影響世界
另一邊,國內模型開源掀起的風浪,已然波及到全世界。
而堅持開源,是智譜AI一直以來的傳統。
他們不僅是國產LLM的領頭羊,也是大模型學術生態、開源生態中,不可忽視,首屈一指的中國力量。
目前為止,智譜AI已經有三代模型全部開源。
6B系列開源模型,在Github上已累計獲得超過6萬star,相當于Llama系列模型的star總數,超過了Grok和其他所有模型;在Hugging Face上吸引了超過1300萬次下載,四周Hugging Face趨勢榜第一。
GPT-4發布的同一天,團隊首次開源了ChatGLM-6B模型,隨后6月開源了二代6B模型,并首次引入GQA、FlashAttention技術,將模型上下文擴充到32K,并加速了生成速度。
緊接著10月,三代6B模型開源,支持128K上下文。
![]()
GLM-49B系列,免費開源
今天,智譜帶來了第四代開源模型最新成果——GLM-4-9B。
顯然,這次開源模型最大的變化是,參數規模從6B升級到了9B,并首次擁有了多模態能力。
而且,基于強大基座模型,GLM-4-9B不僅擁有更強的基礎能力,更長的上下文,更精準的函數調用和All Tools能力。
比起上一代ChatGLM3-6B,在5倍的計算量下,GLM-49B的性能從61.4提升到了72.4,中英文綜合能力提升40%。
另外,在與訓練量更多的Llama-3-8B-Instruct較量中,GLM-4-9B毫不遜色。
具體來說,英文方面,第四代模型小幅領先,而在中文學科方面實現了50%的提升。
1M上下文,一次讀完2本《紅樓夢》
除此以外,GLM-4-9B的上下文從128K擴展到了1M,可同時處理200萬字的輸入。
這相當于,能夠一次讀完2本《紅樓夢》,又或是125篇論文。
在長度為128K的LongBench-Chat上,GLM-4-9B-Chat模型相比上一代提升了20%。同時,在長度為1M的大海撈針測試中,GLM-4-9B-Chat-1M獲得了「全綠」的成績。
演示中,在1M版本模型中,輸入《三體》的三本全集,共90萬字的內容。
然后,給模型prompt「請仔細閱讀上面的三部小說,如果讓你給這個小說寫第四部,你會怎么寫,請給出大綱」。
模型給出了比較合理的續寫規劃。
另外,GLM-4-9B函數調用能力,比上一代大幅提升40%。
在UC伯克利函數調用Leaderboard上,9B模型函數調用能力,即可媲美GPT-4-Turbo。
智譜AI在開源倉庫中,還提供了一個完整的All Tools Demo,開發者可以在本地擁有一個輕量級的清言平替。
比如,先用網頁搜索「馬拉松的世界紀錄」,然后用代碼解釋器去計算「跑步平均速度」。
搜索世界紀錄
計算平均速度
All Tools還有非常多的組合,開發者可以自行去探索。
多模態比肩GPT-4V
除了文本模型,這次一并開源了多模態模型GLM-4V-9B。
最新模型采用了與CogVLM2相似的架構設計,能夠處理高達1120x1120分辨率的輸入,并通過降采樣技術有效減少了token的開銷。
與CogVLM的不同之處在于,GLM-4V-9B并沒有通過引入額外的視覺專家來增加參數量,而是采用了直接混合文本和圖片數據的方式進行訓練。
這種訓練方法使得GLM-4V-9B模型能夠同時具備強大的文本和視覺處理能力,實現了真正的多模態學習。
它能夠以13B總參數激活量,超越了一眾多模態模型,甚至比肩GPT-4V。
不如看看,GLM-4V-9B在實際任務中的表現。
比如,讓模型去識別T恤上的公式印花——麥克斯韋方程式。
你甚至,還可以追問關于方程組的細節,模型可以憑借自己的文本能力完成回答。
這從另一方面印證了,并沒有因為引入多模態能力,而喪失模型原本的文本能力。
在下面這個例子中,是截取清華大學網絡學堂的一個網頁截圖,并要求模型翻譯成HTML代碼。
GLM-4V-9B就可以識別出其中元素,并翻譯成相應的代碼。
整體來說,GLM-4-9B模型共有9.4B參數,是在10T的高質量多語言數據上,完成了預訓練,幾乎利用了所有網頁數據。
其數據量是ChatGLM3-6B模型的3倍還要多。
與此同時,智譜AI采用了FP8精度進行高效的預訓練并成功收斂,比起上一代模型,訓練效率提升3.5倍。
由此,智譜AI將參數規模從6B擴展至9B,并將預訓練計算量增加了5倍。
基于文本基座,打造的多模態模型GLM-4V-9B,完全融合了文本和視覺模型,并與GPT-4V不相上下。
成立于2019年,智譜AI用了4年的時間從一家明星創業公司,躋身為國內頭部AI獨角獸。
一直以來,外界對智譜的印象是,清華系國家隊,全面對標OpenAI技術領先,to B氣質強烈。
智譜不僅在大模型的能力上向OpenAI看齊,而且在投資領域布局上也不遑多讓,深受資本青睞。
過去一年中,他們完成了3次基座大模型升級迭代,這次OpenDay 核心展示了面向AGI愿景的完整產品矩陣,透傳出未來商業化的模式。
智譜AI正把MaaS商業模式提升到新的境界。MaaS平臺2.0的誕生,將會進一步擴大智譜生態朋友圈。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。