WEKA 與 Contextual AI 合作在 Google Cloud 上驅動可隨時投產的企業 AI 解決方案

WEKA 與 Contextual AI 合作在 Google Cloud 上驅動可隨時投產的企業 AI 解決方案

上下文語言模型 (CLM) 利用 WEKA 數據平台來提供更安全、準確和有效率的企業級 AI 應用

美國加州坎貝爾2024年8月8日 /美通社/ — AI 原生數據平台公司 WekaIO (WEKA) 今天宣布,與透過建立 AI 以改變世界運作方式的 Context AI 合作,為其上下文語言模型 (CLM) 提供所需的數據基礎設施。Context AI 的 CLM 使用 Context AI 開發的下一代檢索增強生成 (RAG) 方式 RAG 2.0 進行訓練,其目前由 WEKA® 數據平台所支援。CLM 在 Contextual AI 的平台上為財富 500 強企業驅動安全、準確和可信賴的 AI 應用程式。

 

開發下一代企業級 AI 模型 
Contextual AI 成立於 2023 年,以其最先進的 RAG 2.0 技術為後盾,提供建立企業級 AI 應用程式的統包平台。傳統的 RAG 管線將用於嵌入的凍結模型、用於檢索的向量資料庫和黑箱生成模型拼接在一起,RAG 2.0 則與其不同,提供單一的端對端整合系統,可以提高準確度、改進合規性、減少人工幻覺,並可將答案歸因於來源文件。

生成式 AI 工作負載對效能、數據管理和運算能力的要求很高,這可能會導致在訓練和服務過程耗費大量時間和資源。Contextual AI 利用大型且多元化的數據集訓練其 CLM。在訓練過程中,該公司最初遇到了效能瓶頸和擴展挑戰,導致 GPU 利用率欠佳,延誤了其 AI 模型開發時間。

設計數據管理系統以盡量提高 GPU 利用率
提高 GPU 利用率對於確保 AI 系統和工作負載以最高效率運行至關重要。WEKA 資料平台的先進 AI 原生架構是專門為加速 AI 管道的每一個步驟而設計的,可建立無障礙的數據管道,讓 GPU 的數據達到飽和,從而確保能更有效率地運作,讓 AI 工作負載以更快和更可持續的方式運作。WEKA 的軟件解決方案與雲端和硬件無關,可部署在任何地方,其零複製、零調整的架構可動態支援各種 AI 工作負載設定檔,在單一數據平台中處理模型訓練期間跨越數百萬個小檔案的元數據操作,以及在模型檢查點作業期間的大量寫入效能。

Contextual AI 在 Google Cloud 上部署 WEKA 數據平台,以建立高效能的數據基礎架構層,可管理其所有用於 AI 模型訓練的數據集(總計 100TB)。WEKA 平台在數據效能上有顯著的躍進,直接提升開發人員的生產力,並加速模型訓練時間。

除了提供從儲存到加速器的快速數據移動外,WEKA 平台亦為 Contextual AI 提供了無縫的元數據處理、檢查點和數據預處理功能,從而消除訓練過程中的效能瓶頸,提高 GPU 利用率,並幫助降低其雲端成本。

Contextual AI 技術總監兼聯合創辦人 Amanpreet Singh 表示:「在雲端訓練大規模 AI 模型需要一個現代化的數據管理解決方案,以提供高 GPU 利用率,並加快模型開發所花費的實際時間。有了 WEKA 數據平台,我們現在擁有強大的數據管道,可以為下一代 GPU 提供動力,並大規模建立最先進的生成式 AI 解決方案。它就像魔術一樣,可以將快速和短暫的儲存轉化為持久而實惠的數據。」

WEKA 數據平台所帶來的主要成果:

  • 3 倍效能改進:由於 GPU 使用率顯著提高,在關鍵 AI 使用案例的效能提高了三倍。
  • AI 模型檢查點速度快 4 倍:消除模型檢查點完成的延遲,使檢查點流程加快 4 倍,大幅提高開發人員的生產力。
  • 降低 38% 成本: 每 TB 相關雲端儲存成本降低 38%。

WEKA 總裁 Jonathan Martin 表示:「生成式 AI 幾乎具有無限的潛力,可以為企業發揮洞察和創造新價值,但許多企業仍然面臨挑戰,不知從何入手,也不知道如何推進他們的 AI 項目。Contextual AI 透過創建先進的生成式 AI 解決方案,幫助企業更快地利用 AI 的潛力,為企業 AI 的未來進行創新。WEKA 很榮幸能夠幫助 Contextual AI 克服關鍵數據管理挑戰,從而加速訓練可靠和值得信賴的 AI 模型,推動 AI 革命。」

若要進一步了解 Contextual AI 如何與 WEKA 合作以推動其企業 AI 解決方案,請造訪:https://www.weka.io/customers/contextual-ai/

關於 Contextual AI
Contextual AI 的使命是透過 AI 改變世界運作方式。該公司受到財富 500 強公司的信賴,其可將複雜的任務自動化,讓知識工作者可以專注於高增值活動。聯合創辦人兼行政總裁 Douwe Kiela 是原有業界標準 RAG 技術的先驅,並與聯合創辦人兼技術總監 Amanpreet Singh 一同領導我們的頂尖專家團隊。該團隊採用最先進的 RAG 2.0 技術和端對端機器學習,為企業推進可定制的生成式 AI 應用程式,適用於銀行、半導體、媒體等多個用例和領域。Context AI 總部位於美國加州山景城,在紐約和倫敦均設有辦事處,擁有超過 30 名員工。如欲了解更多資訊,請瀏覽 https://contextual.ai

關於 WEKA  
WEKA 正在為 AI 時代的企業數據堆疊構建一種新方法。WEKA® 數據平台採用雲端原生及 AI 原生架構,樹立 AI 基礎設施的標竿。該平台可靈活部署於任何地方,支援本地、雲端和邊緣運算環境之間的無縫數據轉移。該平台將傳統數據孤島轉化為動態數據管道,可加速 GPU 運算、AI 模型訓練和推理以及其他高性能工作負載,使之能更高效地運作、減少能耗,並降低相關的碳排放。WEKA 幫助全球最具創新精神的企業和研究機構解決複雜的數據挑戰,更快速、更可持續地探索新發現、見解和成果,其客戶更是包括財富 50 強中的 12 間企業。請瀏覽 www.weka.io 了解更多資訊,或在 LinkedInXFacebook 上關注 WEKA。

了解為何 WEKA 在 Gartner® 分散式檔案系統和物件式儲存 Magic Quadrant™(魔力象限)中連續三次獲評為「遠見者」(Visionary)——獲取報告

WEKA 及 WEKA 標誌乃 WekaIO, Inc. 的註冊商標。此處使用的其他商業名稱可能為其他商標擁有者分別擁有。