然而HPE GreenLake for File Storage能夠提供AI等級的企業級效能,讓資料最密集的應用程式加速運行。從資料聚合、準備、訓練、調校到推論,每個AI階段都能保持頂尖效能。這不僅能讓小型資料集的效能在某個時間點達到高峰,還能讓要求最嚴苛、資料最密集的AI應用隨時保持高處理效能,包括GenAI和大型語言模型(LLMs)。 AI等級的企業級效能可幫助企業從所有聚合的資料中挖掘更多價值、加速獲得洞察,並擁有真正的競爭優勢。
HPE GreenLake for File Storage採用分散式、全共享、具高度韌性的模組化架構,能夠獨立擴充效能和容量-即使是Exabyte級的資料量也能輕鬆處理。透過全NVMe設計提供快速、可預測的效能,無需依賴前端快取或在不同媒體間移動和分層資料,就能為資料最密集的AI應用程式提供強大效能。
相較之下,HPE GreenLake for File Storage可在每個機架單元(RU)提供4倍的容量,同時減少一半的耗電量,進而大幅降低AI儲存成本。它還提供業界領先的資料刪減技術、無中斷升級和AI 儲存即服務的消費模式,以避免過度配置,進一步降低碳足跡。企業還可獨立擴充效能和容量,以更低成本獲得更高效率,並透過AI等級的企業級效能最大化GPU利用率(進而最大化GPU投資回報)。
此外, HPE GreenLake for File Storage提供不會造成系統負擔的快照和原生複製功能、優異的快閃儲存效率,並利用相似度演算法提高資料縮減效率。相較於壓縮和重複資料刪除技術,此演算法採用全域和細部方式來縮減資料,因此可以有效縮減資料,例如將生命科學資料縮減到原來的一半;對於已經預縮減的備份、預壓縮的日誌檔案、HPC和動畫資料,則能縮減至三分之一;而對於未壓縮的時序資料,縮減比例甚至可達到八分之一*註4 。
HPE GreenLake for File Storage透過InfiniBand、NVIDIA GPUDirect®和RDMA來支援最佳化的GPU利用率,並藉由更快的檢查點提升模型訓練和調校效能,以加速AI工作負載運作。前端主機使用InfiniBand進行網路連線(包括NVIDIA Quantum-2 InfiniBand平台)以提供更多靈活性。此外,它還能擴充至720PB的有效容量(三分之一的資料縮減率)以支援大型企業的AI檔案資料。
為了推動企業AI計劃並提高競爭力,企業需要能夠適用於AI的檔案儲存解決方案,以提供AI等級的企業級效能、簡易性和高效率。而HPE GreenLake for File Storage就是針對這三大要素所設計,此單一靈活的解決方案不僅適用於AI所有階段,更適用於企業的所有資料規模。無論處於哪個階段,此解決方案都能幫助企業在業務中充分發揮AI優勢。
欲瞭解更多HPE GreenLake for File Storage,請觀賞《讓適用於AI的檔案儲存解決方案加速並簡化AI工作負載的洞察》影片。
參考資料 * 部落格:HPE GreenLake for File Storage 系列部落格 * 影片:HPE GreenLake for File Storage操作示範 * 解決方案簡介:使用HPE GreenLake for File Storage打造現代化AI架構 * 白皮書:HPE GreenLake for File Storage架構 * 技術部落格:技術概論:深入了解HPE GreenLake for File Storage