Google Cloud ने अपने AI हाइपरकंप्यूटर सॉफ्टवेयर लेयर में महत्वपूर्ण अपडेट की घोषणा की है, जो प्रशिक्षण और अनुमान प्रदर्शन को बढ़ाने, बड़े पैमाने पर लचीलापन में सुधार और AI हाइपरकंप्यूटर संसाधनों के लिए एक केंद्रीकृत हब प्रदान करने पर केंद्रित है।

प्रमुख अपडेट में से एक A3 मेगा VM पर MaxText के लिए समर्थन है, जो बड़े भाषा मॉडल (LLM) के तेज़ और अधिक कुशल प्रशिक्षण को सक्षम बनाता है। NVIDIA H100 Tensor Core GPU द्वारा संचालित ये VM, A3 VM की तुलना में GPU-से-GPU नेटवर्क बैंडविड्थ में 2X सुधार प्रदान करते हैं।

इसके अतिरिक्त, Google Cloud ने Cloud TPU v5p पर SparseCore की शुरुआत की, जो एम्बेडिंग संचालन के लिए हार्डवेयर त्वरण प्रदान करता है, जिससे अनुशंसा प्रणालियों के लिए उच्च प्रदर्शन होता है।

LLM अनुमान को बढ़ाने के लिए, Google Cloud ने JetStream में KV कैश क्वांटिज़ेशन और रैग्ड अटेंशन कर्नेल भी पेश किए, जिससे Cloud TPU v5e पर अनुमान प्रदर्शन में 2X तक सुधार हुआ है।

इन अपडेट के साथ, Google Cloud संगठनों को एक प्रदर्शनकारी और लागत प्रभावी बुनियादी ढाँचा प्रदान करके अपनी AI यात्रा को तेज करने का अधिकार देता रहता है। अनुकूलित हार्डवेयर और सॉफ्टवेयर पर ध्यान केंद्रित करने के साथ-साथ व्यापक संसाधन, AI हाइपरकंप्यूटर को AI की शक्ति का लाभ उठाने की तलाश करने वाले व्यवसायों के लिए एक आकर्षक समाधान बनाते हैं।