開源社區(qū)有福了。
說到做到,馬斯克承諾的開源版大模型 Grok 終于來了!
今天凌晨,馬斯克旗下大模型公司 xAI 宣布正式開源 3140 億參數(shù)的混合專家(MoE)模型「Grok-1」,以及該模型的權(quán)重和網(wǎng)絡(luò)架構(gòu)。
這也使得Grok-1成為當(dāng)前參數(shù)量最大的開源大語(yǔ)言模型。
封面圖根據(jù) Grok 提示使用 Midjourney 生成的:神經(jīng)網(wǎng)絡(luò)的 3D 插圖,具有透明節(jié)點(diǎn)和發(fā)光連接,以不同粗細(xì)和顏色的連接線展示不同的權(quán)重。
這個(gè)時(shí)候,馬斯克當(dāng)然不會(huì)忘了嘲諷 OpenAI 一番,「我們想了解更多 OpenAI 的開放部分」。

回到模型本身,Grok-1 從頭開始訓(xùn)練,并且沒有針對(duì)任何特定應(yīng)用(如對(duì)話)進(jìn)行微調(diào)。相對(duì)的,在 X(原 Twitter)上可用的 Grok 大模型是微調(diào)過的版本,其行為和原始權(quán)重版本并不相同。
Grok-1 的模型細(xì)節(jié)包括如下:
基礎(chǔ)模型基于大量文本數(shù)據(jù)進(jìn)行訓(xùn)練,沒有針對(duì)任何具體任務(wù)進(jìn)行微調(diào);
3140 億參數(shù)的 MoE 模型,在給定 token 上的激活權(quán)重為 25%;
2023 年 10 月,xAI 使用 JAX 庫(kù)和 Rust 語(yǔ)言組成的自定義訓(xùn)練堆棧從頭開始訓(xùn)練。
xAI 遵守 Apache 2.0 許可證來開源 Grok-1 的權(quán)重和架構(gòu)。Apache 2.0 許可證允許用戶自由地使用、修改和分發(fā)軟件,無論是個(gè)人還是商業(yè)用途。項(xiàng)目發(fā)布短短四個(gè)小時(shí),已經(jīng)攬獲 3.4k 星標(biāo),熱度還在持續(xù)增加。

項(xiàng)目地址 https://github.com/xai-org/grok-1
該存儲(chǔ)庫(kù)包含用于加載和運(yùn)行 Grok-1 開放權(quán)重模型的 JAX 示例代碼。使用之前,用戶需要確保先下載 checkpoint,并將 ckpt-0 目錄放置在 checkpoint 中, 然后,運(yùn)行下面代碼進(jìn)行測(cè)試:
pip install -r requirements.txt
python run.py
項(xiàng)目說明中明確強(qiáng)調(diào),由于 Grok-1 是一個(gè)規(guī)模較大(314B 參數(shù))的模型,因此需要有足夠 GPU 內(nèi)存的機(jī)器才能使用示例代碼測(cè)試模型。此外,該存儲(chǔ)庫(kù)中 MoE 層的實(shí)現(xiàn)效率并不高,之所以選擇該實(shí)現(xiàn)是為了避免需要自定義內(nèi)核來驗(yàn)證模型的正確性。
用戶可以使用 Torrent 客戶端和這個(gè)磁力鏈接來下載權(quán)重文件:
magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce
看到這,有網(wǎng)友開始好奇 314B 參數(shù)的 Grok-1 到底需要怎樣的配置才能運(yùn)行。對(duì)此有人給出答案:可能需要一臺(tái)擁有 628 GB GPU 內(nèi)存的機(jī)器(每個(gè)參數(shù) 2 字節(jié))。這么算下來,8x***(每個(gè) 80GB)就可以了。

知名機(jī)器學(xué)習(xí)研究者、《Python 機(jī)器學(xué)習(xí)》暢銷書作者 Sebastian Raschka 評(píng)價(jià)道:「Grok-1 比其他通常帶有使用限制的開放權(quán)重模型更加開源,但是它的開源程度不如 Pythia、Bloom 和 OLMo,后者附帶訓(xùn)練代碼和可復(fù)現(xiàn)的數(shù)據(jù)集。」

DeepMind 研究工程師 Aleksa Gordié 則預(yù)測(cè),Grok-1 的能力應(yīng)該比 LLaMA-2 要強(qiáng),但目前尚不清楚有多少數(shù)據(jù)受到了污染。另外,二者的參數(shù)量也不是一個(gè)量級(jí)。

還有一位推特用戶 @itsandrewgao 詳細(xì)分析了 Grok-1 的架構(gòu)細(xì)節(jié),并做出了一下幾點(diǎn)總結(jié)。

首先 Grok-1 是 8 個(gè)專家的混合(2個(gè)活躍)、860億激活參數(shù)(比Llama-2 70B還多),使用旋轉(zhuǎn)嵌入而非固定位置嵌入。

tokenizer 詞匯大小為 131,072(類似于 GPT-4)2^17,嵌入大小 6,144 (48*128),64 個(gè) transformer 層(sheesh), 每層都有一個(gè)解碼器層:多頭注意力塊和密集塊,鍵值大小 128。

多頭注意力塊:48 個(gè) head 用于查詢,8 個(gè)用于鍵 / 值(KV)。KV 大小為 128。密集塊(密集前饋塊):加寬因子 8,隱藏層大小 32768。每個(gè) token 從 8 個(gè)專家中選擇 2 個(gè)。

旋轉(zhuǎn)位置嵌入大小為 6144,與輸入嵌入大小相同。上下文長(zhǎng)度為 8192 tokens,精度為 bf16。

此外還提供了一些權(quán)重的 8bit 量化內(nèi)容。

當(dāng)然,我們還是希望 xAI 官方能夠盡快公布 Grok-1 的更多模型細(xì)節(jié)。
Grok-1 是個(gè)什么模型?能力如何?
Grok 是馬斯克 xAI 團(tuán)隊(duì)去年 11 月推出的一款大型語(yǔ)言模型。在去年 11 月的官宣博客中(參見《馬斯克 xAI 公布大模型詳細(xì)進(jìn)展,Grok 只訓(xùn)練了 2 個(gè)月》), xAI 寫道:
Grok 是一款仿照《銀河系漫游指南》設(shè)計(jì)的 AI,可以回答幾乎任何問題,更難能可貴的是,它甚至可以建議你問什么問題!
Grok 在回答問題時(shí)略帶詼諧和叛逆,因此如果你討厭幽默,請(qǐng)不要使用它!
Grok 的一個(gè)獨(dú)特而基本的優(yōu)勢(shì)是,它可以通過 X 平臺(tái)實(shí)時(shí)了解世界。它還能回答被大多數(shù)其他 AI 系統(tǒng)拒絕的辛辣問題。
Grok 仍然是一個(gè)非常早期的測(cè)試版產(chǎn)品 —— 這是我們通過兩個(gè)月的訓(xùn)練能夠達(dá)到的最佳效果 —— 因此,希望在您的幫助下,它能在測(cè)試中迅速改進(jìn)。
xAI 表示,Grok-1 的研發(fā)經(jīng)歷了四個(gè)月。在此期間,Grok-1 經(jīng)歷了多次迭代。
在公布了 xAI 創(chuàng)立的消息之后,他們訓(xùn)練了一個(gè) 330 億參數(shù)的 LLM 原型 ——Grok-0。這個(gè)早期模型在標(biāo)準(zhǔn) LM 測(cè)試基準(zhǔn)上接近 LLaMA 2 (70B) 的能力,但只使用了一半的訓(xùn)練資源。之后,他們對(duì)模型的推理和編碼能力進(jìn)行了重大改進(jìn),最終開發(fā)出了 Grok-1,這是一款功能更為強(qiáng)大的 SOTA 語(yǔ)言模型,在 HumanEval 編碼任務(wù)中達(dá)到了 63.2% 的成績(jī),在 MMLU 中達(dá)到了 73%。
xAI 使用了一些旨在衡量數(shù)學(xué)和推理能力的標(biāo)準(zhǔn)機(jī)器學(xué)習(xí)基準(zhǔn)對(duì) Grok-1 進(jìn)行了一系列評(píng)估:

在這些基準(zhǔn)測(cè)試中,Grok-1 顯示出了強(qiáng)勁的性能,超過了其計(jì)算類中的所有其他模型,包括 ChatGPT-3.5 和 Inflection-1。只有像 GPT-4 這樣使用大量訓(xùn)練數(shù)據(jù)和計(jì)算資源訓(xùn)練的模型才能超越它。xAI 表示,這展示了他們?cè)诟咝в?xùn)練 LLM 方面取得的快速進(jìn)展。
不過,xAI 也表示,由于這些基準(zhǔn)可以在網(wǎng)上找到,他們不能排除模型無意中在這些數(shù)據(jù)上進(jìn)行了訓(xùn)練。因此,他們?cè)谑占陻?shù)據(jù)集之后,根據(jù)去年 5 月底(數(shù)據(jù)截止日期之后)公布的 2023 年匈牙利全國(guó)高中數(shù)學(xué)期末考試題,對(duì)他們的模型(以及 Claude-2 和 GPT-4 模型)進(jìn)行了人工評(píng)分。結(jié)果,Grok 以 C 級(jí)(59%)通過考試,Claude-2 也取得了類似的成績(jī)(55%),而 GPT-4 則以 68% 的成績(jī)獲得了 B 級(jí)。xAI 表示,他們沒有為應(yīng)對(duì)這個(gè)考試而特別準(zhǔn)備或調(diào)整模型。

下面這個(gè)表格展示了 Grok-1 的更多信息(來自 2023 年 11 月的博客,部分信息可能存在更新):
模型細(xì)節(jié):Grok-1 是一個(gè)基于 Transformer 的自回歸模型。xAI 利用來自人類和早期 Grok-0 模型的大量反饋對(duì)模型進(jìn)行了微調(diào)。初始的 Grok-1 能夠處理 8192 個(gè) token 的上下文長(zhǎng)度。模型于 2023 年 11 月發(fā)布。
預(yù)期用途:Grok-1 將作為 Grok 背后的引擎,用于自然語(yǔ)言處理任務(wù),包括問答、信息檢索、創(chuàng)意寫作和編碼輔助。
局限性:雖然 Grok-1 在信息處理方面表現(xiàn)出色,但讓人類檢查 Grok-1 的工作以確保準(zhǔn)確性至關(guān)重要。Grok-1 語(yǔ)言模型不具備獨(dú)立搜索網(wǎng)絡(luò)的能力。在 Grok 中部署搜索工具和數(shù)據(jù)庫(kù)可以增強(qiáng)模型的能力和真實(shí)性。盡管可以訪問外部信息源,但模型仍會(huì)產(chǎn)生幻覺。
訓(xùn)練數(shù)據(jù):Grok-1 發(fā)布版本所使用的訓(xùn)練數(shù)據(jù)來自截至 2023 年第三季度的互聯(lián)網(wǎng)數(shù)據(jù)和 xAI 的 AI 訓(xùn)練師提供的數(shù)據(jù)。
評(píng)估:xAI 在一系列推理基準(zhǔn)任務(wù)和國(guó)外數(shù)學(xué)考試試題中對(duì) Grok-1 進(jìn)行了評(píng)估。他們與早期 alpha 測(cè)試者合作,以評(píng)估 Grok-1 的一個(gè)版本,包括對(duì)抗性測(cè)試。目前,Grok 已經(jīng)對(duì)一部分早期用戶開啟了封閉測(cè)試訪問權(quán)限,進(jìn)一步擴(kuò)大測(cè)試人群。

在博客中,xAI 還公布了 Grok 的構(gòu)建工程工作和 xAI 大致的研究方向。其中,長(zhǎng)上下文的理解與檢索、多模態(tài)能力都是未來將會(huì)探索的方向之一。
xAI 表示,他們打造 Grok 的愿景是,希望創(chuàng)造一些 AI 工具,幫助人類尋求理解和知識(shí)。
具體來說,他們希望達(dá)到以下目標(biāo):
收集反饋,確保他們打造的 AI 工具能夠最大限度地造福全人類。他們認(rèn)為,設(shè)計(jì)出對(duì)有各種背景和政治觀點(diǎn)的人都有用的 AI 工具非常重要。他們還希望在遵守法律的前提下,通過他們的 AI 工具增強(qiáng)用戶的能力。Grok 的目標(biāo)是探索并公開展示這種方法;
增強(qiáng)研究和創(chuàng)新能力:他們希望 Grok 成為所有人的強(qiáng)大研究助手,幫助他們快速獲取相關(guān)信息、處理數(shù)據(jù)并提出新想法。
他們的最終目標(biāo)是讓他們的 AI 工具幫助人們尋求理解。
在 X 平臺(tái)上,Grok-1 的開源已經(jīng)引發(fā)了不少討論。值得注意的是,技術(shù)社區(qū)指出,該模型在前饋層中使用了 GeGLU,并采用了有趣的 sandwich norm 技術(shù)進(jìn)行歸一化。甚至 OpenAI 的員工也發(fā)帖表示對(duì)該模型很感興趣。

不過,開源版 Grok 目前還有些事情做不到,比如「通過 X 平臺(tái)實(shí)時(shí)了解世界」,實(shí)現(xiàn)這一功能目前仍需要訂閱部署在 X 平臺(tái)上的付費(fèi)版本。
鑒于馬斯克對(duì)開源的積極態(tài)度,有些技術(shù)人員已經(jīng)在期待后續(xù)版本的開源了。

文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
海報(bào)生成中...
海藝AI的模型系統(tǒng)在國(guó)際市場(chǎng)上廣受好評(píng),目前站內(nèi)累計(jì)模型數(shù)超過80萬個(gè),涵蓋寫實(shí)、二次元、插畫、設(shè)計(jì)、攝影、風(fēng)格化圖像等多類型應(yīng)用場(chǎng)景,基本覆蓋所有主流創(chuàng)作風(fēng)格。
9月9日,國(guó)際權(quán)威市場(chǎng)調(diào)研機(jī)構(gòu)英富曼(Omdia)發(fā)布了《中國(guó)AI云市場(chǎng),1H25》報(bào)告。中國(guó)AI云市場(chǎng)阿里云占比8%位列第一。
9月24日,華為坤靈召開“智能體驗(yàn),一屏到位”華為IdeaHub千行百業(yè)體驗(yàn)官計(jì)劃發(fā)布會(huì)。
IDC今日發(fā)布的《全球智能家居清潔機(jī)器人設(shè)備市場(chǎng)季度跟蹤報(bào)告,2025年第二季度》顯示,上半年全球智能家居清潔機(jī)器人市場(chǎng)出貨1,2萬臺(tái),同比增長(zhǎng)33%,顯示出品類強(qiáng)勁的市場(chǎng)需求。