Google(GOOGL.US) 發布新 AI 記憶體壓縮技術「TurboQuant」,引發業界與股市關注。然而,蘇黎世聯邦理工學院博士後高健揚指出,TurboQuant 論文存在方法相似性回避、理論結果錯誤及不公平實驗問題,而這些問題在投稿前已告知 Google 團隊卻未修正。
Google 聲稱「TurboQuant」能在不犧牲模型精準度的情況下,將生成式 AI 推理階段最消耗資源的「KV Cache」空間需求縮減至原本的 1/6,並讓計算速度提升 8 倍。
該技術一出,引發業界對記憶體需求可能斷崖式下降的擔憂,美光科技 (MU.US) 、SanDisk (SNDKV.US) 、威騰電子 (WDC.US) 等記憶體相關美股應聲下跌。
然而,就在周五(27 日),蘇黎世聯邦理工學院博士後、RaBitQ 系列論文第一作者高健揚公開發布澄清信,指出 TurboQuant 論文存在三大嚴重問題,包括:系統性回避方法相似性、錯誤描述 RaBitQ 理論結果,及刻意創造不公平的對比實驗環境。
高健揚表示,這些問題在論文投稿前已透過郵件告知 TurboQuant 團隊,對方明知卻未修正。
RaBitQ 是高健揚於 2024 年發表的高維向量量化方法,其核心創新之一是在量化前對輸入向量施加隨機旋轉,並從理論上證明其達到頂級電腦科學會議提出的漸近最優誤差界。
高健揚指出,Google 研究團隊於 2026 年 1 月提交的論文《TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate》對已有的 RaBitQ 向量量化方法的描述、理論對比與實驗對比都存在明顯問題。
他強調,這些問題在投稿前,自己已透過郵件明確指出錯誤,TurboQuant 團隊也知情,但選擇未進行修正,而此次公開澄清,是因為錯誤的學術敘事一旦廣泛流傳,後續糾正將更加困難。
TurboQuant 論文問題一:系統性地迴避 TurboQuant 方法與已有 RaBitQ 方法的相似性
高健揚指出,RaBitQ 與 TurboQuant 在方法上有直接關聯,皆在量化前使用隨機旋轉(Johnson-Lindenstrauss 變換),但 TurboQuant 論文中未正面承認這一關聯。
事實上,2025 年 1 月,TurboQuant 的第二作者 Majid Daliri 曾聯繫 RaBitQ 團隊,請求協助調試 Python 版本的 RaBitQ 程式碼,可見 TurboQuant 團隊充分了解 RaBitQ 細節。
儘管 ICLR 審稿人指出兩者使用隨機投影技術相似,TurboQuant 最終仍未在正文中充分討論 RaBitQ,而是將其不完整描述移至附錄。
TurboQuant 論文問題二:錯誤描述 RaBitQ 的理論結果
TurboQuant 論文聲稱 RaBitQ 的理論保證「次優」,但未提供任何論據。
高健揚指出,他們在拓展版 RaBitQ 論文的 Theorem 3.2 中,已經嚴格證明 RaBitQ 的誤差界達到了理論電腦頂級會議論文給出的漸近最優誤差界。
2025 年 5 月,RaBitQ 團隊曾透過郵件多輪澄清,TurboQuant 第二作者確認已通知全體作者,但論文最終仍保留錯誤描述。
TurboQuant 論文問題三:刻意創造不公平的實驗環境
TurboQuant 論文在對比實驗中,使用單核 CPU 且關閉多線程測試 RaBitQ,而 TurboQuant 則使用 A100 GPU 測試,導致 RaBitQ 速度被嚴重低估。
高健揚指出,這兩點都未在論文中充分披露,使讀者誤以為 RaBitQ 比 TurboQuant 慢數個數量級,卻無從知道這個結論建立在刻意創造的「不公平」實驗條件之上。
高健揚表示,他們已在 ICLR OpenReview 平台發表公開評論,並向 ICLR General Chairs、PC Chairs 及倫理委員會提交正式投訴。
接下來,RaBitQ 團隊將在 arXiv 發布詳細技術報告,並考慮向相關機構進一步反映。
高健揚強調,此舉目的是確保學術紀錄準確反映各方法之間的真實關係,並呼籲業界注意 TurboQuant 論文背後的問題。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網