Amazon Web Services (AWS) ने Amazon Bedrock Guardrails में एक नया सेफगार्ड, Automated Reasoning checks (पूर्वावलोकन) की घोषणा की है, जो बड़े भाषा मॉडल (LLM) में होने वाली मतिभ्रम को कम करने में मदद करता है, उनके उत्तरों की सटीकता का गणितीय रूप से सत्यापन करके। यह स्वचालित तर्क का लाभ उठाता है, जो कंप्यूटर विज्ञान का एक क्षेत्र है जो सिस्टम और प्रोग्राम के व्यवहार को सत्यापित करने के लिए गणितीय प्रमाणों और तार्किक कटौती का उपयोग करता है। मशीन लर्निंग (ML) के विपरीत, जो भविष्यवाणियां करता है, स्वचालित तर्क सिस्टम के व्यवहार के बारे में गणितीय गारंटी प्रदान करता है। AWS पहले से ही प्रमुख सेवा क्षेत्रों जैसे भंडारण, नेटवर्किंग, वर्चुअलाइजेशन, पहचान और क्रिप्टोग्राफी में स्वचालित तर्क का उपयोग करता है। उदाहरण के लिए, क्रिप्टोग्राफिक कार्यान्वयन की शुद्धता को औपचारिक रूप से सत्यापित करने के लिए स्वचालित तर्क का उपयोग किया जाता है, जिससे प्रदर्शन और विकास गति दोनों में सुधार होता है। अब, AWS जनरेटिव AI के लिए एक समान दृष्टिकोण अपना रहा है। Amazon Bedrock Guardrails में नया Automated Reasoning checks (पूर्वावलोकन) पहला जनरेटिव AI सेफगार्ड है जो तार्किक रूप से सटीक और सत्यापन योग्य तर्क का उपयोग करके मतिभ्रम के कारण होने वाली तथ्यात्मक त्रुटियों को रोकने में मदद करता है जो बताता है कि जनरेटिव AI उत्तर सही क्यों हैं। Automated Reasoning checks उन उपयोग के मामलों के लिए विशेष रूप से उपयोगी होते हैं जहाँ तथ्यात्मक सटीकता और व्याख्यात्मकता महत्वपूर्ण होती है। उदाहरण के लिए, आप मानव संसाधन (HR) नीतियों, कंपनी उत्पाद जानकारी, या परिचालन कार्यप्रवाह के बारे में LLM-जनित उत्तरों को मान्य करने के लिए Automated Reasoning checks का उपयोग कर सकते हैं। प्रॉम्प्ट इंजीनियरिंग, पुनर्प्राप्ति-संवर्धित जनरेशन (RAG), और प्रासंगिक ग्राउंडिंग जाँच जैसी अन्य तकनीकों के साथ उपयोग किए जाने पर, Automated Reasoning checks यह सुनिश्चित करने के लिए एक अधिक कठोर और सत्यापन योग्य दृष्टिकोण जोड़ते हैं कि LLM-जनित आउटपुट तथ्यात्मक रूप से सटीक है। अपने डोमेन ज्ञान को संरचित नीतियों में एन्कोड करके, आप यह सुनिश्चित कर सकते हैं कि आपके संवादात्मक AI एप्लिकेशन आपके उपयोगकर्ताओं को विश्वसनीय और भरोसेमंद जानकारी प्रदान कर रहे हैं।