隨著HPE GreenLake for Large Language Models (LLMs)的推出,企業可私下在永續的超級運算平台上進行大規模的AI訓練、調整和部署。此平台結合了HPE的AI軟體和市場領先的超級電腦。HPE將攜手首個合作夥伴,德國AI新創公司Aleph Alpha一起提供HPE GreenLake for LLMs,讓使用者利用經過實際驗證並可立即使用的LLM來執行需要文本和圖像處理與分析的使用案例。
HPE計劃針對產業與特定領域推出一系列的AI應用程式,包括氣候建模、醫療保健和生命科學、金融服務、製造業和交通運輸等,而HPE GreenLake for LLMs是此系列的首款產品。
與同時運行多個工作負載的通用雲端服務不同,HPE GreenLake for LLMs運行在專為單一大規模的AI訓練和模擬工作負載所設計的AI原生架構上,並充分運用其運算能力。此服務能同時支援數百個或數千個CPU或GPU上的AI和高效能運算(HPC)作業。其強大能力可以提升AI訓練的成效、可靠性和效率,並建構更準確的模型,讓企業加速從概念驗證進入實際生產,進而更快解決問題。
AI應用程式系列產品的首款解決方案-HPE GreenLake for LLMs HPE GreenLake for LLMs將納入Luminous存取功能,這是由Aleph Alpha開發的預訓練大型語言模型,支援英語、法語、德語、義大利語和西班牙語等多種語言。此LLM模型能讓客戶使用自己的資料來訓練和微調客製化模型,以根據他們的專有知識獲得即時洞察。 這項服務讓企業得以構建和推廣各種AI應用程式,並整合至其工作流程中,以充分發揮商業和研究價值。
「藉由HPE的超級電腦和AI軟體,我們能迅速且有效率地為銀行、醫院和律師事務所等關鍵企業訓練Luminous,讓他們利用這個大型語言模型作為數位助理,加速決策流程並節省時間和資源,」Aleph Alpha創辦人暨執行長Jonas Andrulis表示。「我們很榮幸能成為HPE GreenLake for Large Language Models的合作夥伴,並期待與HPE擴大合作,將Luminous擴展至雲端,以即服務方式提供給我們的終端客戶,協助他們為商業和研究計畫開發新的應用程式。」
HPE為AI訓練、調整和部署提供超級運算的規模 HPE GreenLake for LLMs將按客戶需求提供,並在全球最強大且永續的超級電腦HPE Cray XD上運作,因此客戶無須自行購買和管理超級電腦,進而避免龐大的費用、複雜性與專業能力需求。此解決方案利用HPE Cray程式設計環境,這是完全整合的軟體套件,用於優化HPC和AI應用程式,並提供開發、移植、除錯和調整程式碼所需的完整工具。
此外,超級運算平台支援HPE的AI或ML軟體,包括可以快速訓練大規模之模型的HPE機器學習開發環境(HPE Machine Learning Development Environment)與使用再現性AI功能來整合、追蹤和稽核資料,以產生可信任和準確模型的HPE機器學習資料管理軟體(HPE Machine Learning Data Management Software)。
在永續運算環境運行HPE GreenLake for LLMs HPE致力於為客戶提供永續的運算解決方案。HPE GreenLake for LLMs將在託管設施中運行,例如在北美的QScale為首個提供專用設計的設施,以支援超級運算所需的規模和容量,並使用近乎100%的再生能源。1
供貨狀況 HPE GreenLake for LLMs已開放訂購,並可望於2023年底前擴大供應。此解決方案將於北美率先推出,並預計在明年初於歐洲供貨。
1 HPE GreenLake for Large Language Models (LLMs)將優先運行於QScale位於魁北克的主機代管設施,該設施99.5%的電力來自於再生能源。 2 NVIDIA:NVIDIA L40(TensorRT 8.6.0)和T4(TensorRT 8.5.2)的AI圖像生成效能比較,穩定擴散v2.1(512x512)。