Bitget App
交易「智」變
快速買幣市場交易合約理財廣場更多
Tether Data 發布面向現代 AI 模型的 QVAC Fabric LLM 推理和微調框架

Tether Data 發布面向現代 AI 模型的 QVAC Fabric LLM 推理和微調框架

MpostMpost2025/12/03 20:45
作者:Mpost

簡單來說 Tether Data 推出了 QVAC Fabric LLM 框架,該框架支援跨消費性設備和多廠商硬體的 LLM 推理和微調,從而支援去中心化、以隱私為中心且可擴展的 AI 開發。

金融服務部公司 Tether 致力於透過技術促進自由、透明和創新的 Tether Data 公司宣布推出 QVAC Fabric LLM,這是一個全面的大型語言模型 (LLM) 推理運行時和微調框架。該新系統使用戶能夠直接在標準硬體(包括消費級 GPU、筆記型電腦甚至智慧型手機)上運行、訓練和定制大型語言模型,從而擺脫了以往對高端雲端伺服器或專用 NVIDIA 設備的依賴。

QVAC Fabric LLM 再defines 提供了高效能的 LLM 推理和微調功能,這些功能以往只有擁有昂貴基礎設施的組織才能使用。它是首個統一、可移植且高度可擴展的系統,能夠在行動作業系統(iOS 和 Android)以及所有常見的筆記型電腦、桌上型電腦和伺服器環境(Windows、macOS、Linux)上完整執行 LLM 推理、LoRa 適配和指令調優。這使得開發人員和組織能夠獨立建置、部署、運行和個人化 AI,而無需依賴雲端服務、避免供應商鎖定或敏感資料外洩的風險。

此版本的一項顯著創新在於能夠對行動GPU(例如高通Adreno和ARM Mali)上的模型進行微調,這標誌著首個可用於智慧型手機級硬體的現代化LLM訓練的生產就緒框架的誕生。這項進步有助於實現個人化AI,使其能夠直接從用戶設備上學習,從而保護用戶隱私、支援離線運行,並助力新一代高彈性、設備端AI應用的發展。

QVAC Fabric LLM 也擴展了 llama透過添加對現代模型(例如)的微調支持,增強 .cpp 生態系統 LLama3、Qwen3 和 Gemma3 這三個先前不受支援的模型,現在可以透過統一、簡單的工作流程在所有硬體平台上進行微調。

隆重介紹 QVAC Fabric LLM:此框架可為您的硬體帶來完整的 AI 推理和微調功能。

執行和微調現代模型,例如 LLama在您的筆記型電腦、消費級 GPU 甚至智慧型手機上安裝 3 和 Gemma 3。

不使用雲端,絕不妥協。您的資料由您掌控。 pic.twitter.com/WoKF7NfS2Q

— QVAC (@QVAC_tether) 2025 年 12 月 2 日

QVAC Fabric LLM 支援在包括 AMD、Intel、NVIDIA、Apple Silicon 和行動晶片在內的各種 GPU 上進行訓練,這挑戰了長期以來認為高級 AI 開發需要專用於單一供應商硬體的觀念。消費級 GPU 現在能夠勝任重要的 AI 任務,行動裝置也成為合法的訓練平台,從而拓寬了 AI 開發的格局。

對企業而言,該框架具有戰略優勢。企業可以在內部安全硬體上對 AI 模型進行微調,無需將敏感資料暴露給外部雲端服務供應商。這種方法既能保障隱私、符合法規要求,又能提高成本效益,同時也允許部署根據內部需求客製化的 AI 模型。 QVAC Fabric LLM 將微調作業從集中式 GPU 叢集轉移到企業已管理的更廣泛的裝置生態系統中,使高階 AI 更易於存取且更安全。

Tether Data發布QVAC Fabric LLM開源版本,實現去中心化AI定制

Tether Data 已將 QVAC Fabric LLM 作為開源軟體發布,採用 Apache 2.0 許可證,並在 Hugging Face 上提供多平台二進位和即用型適配器。該框架允許開發者只需幾個命令即可開始微調模型,從而降低了以往難以克服的 AI 定制門檻。

QVAC Fabric LLM 標誌著向去中心化、用戶管理的 AI 邁出了切實的一步。儘管業內大部分企業仍然優先考慮基於雲端的解決方案, Tether 數據重點在於直接在本地邊緣硬體上實現高級個人化。這種方法支援在網路延遲較高的地區(例如新興市場)的營運連續性,同時提供一個以隱私為先、具彈性和可擴展性的AI平台,該平台能夠獨立於集中式基礎設施運作。

0
0

免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。

PoolX: 鎖倉獲得新代幣空投
不要錯過熱門新幣,且APR 高達 10%+
立即參與
© 2025 Bitget