Amazon Web Services (AWS) का हफ़्ता काफ़ी व्यस्त रहा, इस दौरान कई नई सुविधाओं और सेवाओं की घोषणा की गई, जिनमें Amazon Bedrock में AI21 Labs के Jamba 1.5 मॉडल परिवार, AWS GovCloud (US) में Amazon Linux 2023 रनटाइम के लिए समर्थन और निष्क्रिय Amazon SageMaker Studio अनुप्रयोगों का स्वचालित शटडाउन शामिल हैं. अन्य उल्लेखनीय रिलीज़ में Amazon Bedrock में अब उपलब्ध Llama 3.2 जेनरेटिव AI मॉडल, AWS Serverless Application Repository के लिए AWS PrivateLink के लिए समर्थन और Amazon EC2 C8g और M8g इंस्टेंस की शुरुआत शामिल है.
Llama 3.2 मॉडल की रिलीज़ ने विशेष रूप से मेरा ध्यान खींचा. इस संग्रह में परिष्कृत रीज़निंग कार्यों के लिए 90B और 11B पैरामीटर मल्टीमॉडल मॉडल और एज डिवाइस के लिए 3B और 1B टेक्स्ट-ओनली मॉडल शामिल हैं. ये मॉडल विज़न कार्यों का समर्थन करते हैं, बेहतर प्रदर्शन प्रदान करते हैं और विभिन्न अनुप्रयोगों में ज़िम्मेदार AI नवाचार के लिए डिज़ाइन किए गए हैं. ये मॉडल 128K संदर्भ लंबाई और आठ भाषाओं में बहुभाषी क्षमताओं का समर्थन करते हैं, यह तथ्य उन्हें उन डेवलपरों और व्यवसायों के लिए एक मूल्यवान संसाधन बनाता है जो अपने अनुप्रयोगों में जेनरेटिव AI क्षमताओं को शामिल करना चाहते हैं.
एक और उल्लेखनीय घोषणा Amazon EC2 C8g और M8g इंस्टेंस की शुरुआत थी. इन इंस्टेंस को कंप्यूट-इंटेंसिव और सामान्य-उद्देश्य वाले वर्कलोड के लिए प्रदर्शन को बढ़ाने के लिए डिज़ाइन किया गया है. तीन गुना ज़्यादा vCPU, तीन गुना ज़्यादा मेमोरी, 75 प्रतिशत ज़्यादा मेमोरी बैंडविड्थ और दो गुना ज़्यादा L2 कैश के साथ, ये इंस्टेंस विभिन्न अनुप्रयोगों के लिए बेहतर डेटा प्रोसेसिंग, मापनीयता और लागत-दक्षता का वादा करते हैं.
कुल मिलाकर, पिछले हफ़्ते से AWS की रिलीज़ नवाचार के प्रति अपनी निरंतर प्रतिबद्धता और ग्राहकों को नवीनतम उपकरण और सेवाएँ प्रदान करने का प्रदर्शन करती हैं. जेनरेटिव AI में प्रगति से लेकर कंप्यूट प्रदर्शन में सुधार तक, AWS सभी आकार के व्यवसायों को तेज़ी से विकसित हो रहे डिजिटल परिदृश्य में सफल होने के लिए आवश्यक संसाधनों से लैस कर रहा है.