Google Cloud में VP, TI Security & CISO, फिल वेनबल्स ने अपने हालिया ब्लॉग पोस्ट में AI विक्रेताओं द्वारा भेद्यता अनुसंधान साझा करने के महत्व पर प्रकाश डाला है। उन्होंने इस बात पर जोर दिया है कि यह पारदर्शिता AI तकनीक में विश्वास बनाने के लिए महत्वपूर्ण है, खासकर इसके तेजी से विकास को देखते हुए। Google साइबर सुरक्षा अनुसंधान को गंभीरता से लेता है और उसने AI जोखिमों की खोज और बेहतर साइबर सुरक्षा विकसित करने में भारी निवेश किया है। विशेष रूप से, Google की क्लाउड भेद्यता अनुसंधान टीम ने Vertex AI में पहले से अज्ञात कमजोरियों की खोज की और उनका समाधान किया। वेनबल्स ने AI डेवलपर्स से AI सुरक्षा अनुसंधान साझाकरण को सामान्य बनाने का आग्रह किया है, एक ऐसे भविष्य की वकालत करते हुए जहाँ जेनरेटिव AI डिफ़ॉल्ट रूप से सुरक्षित हो। Google Cloud का लक्ष्य पारदर्शिता को बढ़ावा देकर, अंतर्दृष्टि साझा करके और AI कमजोरियों के बारे में खुली चर्चा को बढ़ावा देकर इस प्रयास का नेतृत्व करना है। उनका तर्क है कि कमजोरियों को छिपाने से केवल अन्य प्लेटफार्मों पर समान मुद्दों के बने रहने का जोखिम बढ़ जाता है। इसके बजाय, उद्योग को कमजोरियों को खोजने और उन्हें ठीक करने को आसान बनाने का प्रयास करना चाहिए। वेनबल्स ने AI सुरक्षा के लिए मानक को ऊपर उठाने के लिए एक सामूहिक प्रयास का आह्वान करते हुए निष्कर्ष निकाला है, एक ऐसे भविष्य की दिशा में काम कर रहे हैं जहाँ AI मॉडल डिफ़ॉल्ट रूप से सुरक्षित हैं।
Google Cloud ने AI भेद्यता अनुसंधान साझाकरण के महत्व पर बल दिया
Google Cloud