मेधा, एक संस्कृत शब्द है, जिसका अर्थ है ज्ञान, समझ और बुद्धि। EdTech-AI प्लेटफ़ॉर्म बनाने के लिए प्राकृतिक भाषा समझ (NLU) प्लेटफॉर्म का होना बहुत महत्वपूर्ण है। NLU क्षमताएं- हाइपर टैग सहित लर्निंग और असेसमेंट कंटेंट, प्रासंगिक नॉलेज ग्राफ, समृद्ध करने के लिए व्याख्यात्मक और परस्पर संवादात्मक योग्य अनुमान, छात्रों की लर्निंग आउटकम को प्राप्त करने की आवश्यकता को पूरा करने के लिए कंटेंट का सुझाव या निर्माण करती है। कुछ उदाहरण जहां यह सीधे अत्यंत आधुनिक ढंग से प्रदर्शन करने में मदद करते हैं, वे हैं कंटेंट बुद्धिमत्तापूर्ण वाले कार्यों जैसे प्रश्न निर्माण, प्रश्न उत्तर, डाउट रिजॉल्यूशन, इंस्टा-सॉल्वर आदि।

आर्टिफिशियल इंटेलिजेंस ने एक लंबा सफर तय किया है, जिसमें यह गहन शिक्षण तकनीकों के साथ डोमेन अनुप्रयोगों की एक विस्तृत श्रृंखला पर अपनी क्षमता के लिए एक ठोस आधार बनाती है। हालांकि, आर्टिफिशियल इंटेलिजेंस पर वर्तमान स्थिति में ब्लैक-बॉक्स मॉडल का वर्चस्व है, जो ट्रेनिंग डेटा में सांख्यिकीय रूप से कैप्चर किए गए अंतर्निहित पैटर्न को सीखकर प्रशिक्षित किया जाता है। ये मॉडल न केवल अस्पष्ट हैं बल्कि स्पष्ट रूप से परिभाषित डोमेन परिदृश्यों के लिए संभावित रूप से कमजोर भी हैं।

मेधा प्लेटफ़ॉर्म का उद्देश्य है:

  • गहन शिक्षण मॉडल को व्याख्या योग्य और परस्पर संवाद योग्य बनाना।
  • नॉलेज ग्राफ में स्पष्ट रूप से परिभाषित डोमेन ज्ञान को गहन शिक्षण मॉडल में शामिल करना।
  • गहन शिक्षण मॉडल को एज डिवाइस और रीसोर्स- कांस्ट्रेनड सेटिंग्स पर एक्सेस करने योग्य बनाना।
  • दूसरे शब्दों में,  स्थानीय ऑन-डिवाइस अनुमान लगाने के लिए मॉडल का अनुकूलन करना।

हम नॉलेज ग्राफ से सेल्फ-अटेंशन आधारित मॉडल में ज्ञान को अंतर्स्थापित करते हैं। उदाहरण के लिए, हमने कॉन्सेप्ट जाल से “गैरहाज़िर” पद जैसे कॉन्सेप्ट पर आधारित पदों को लिया और इसे उसी के टोकन एम्बेडिंग के साथ BERT में स्थानांतरित कर दिया। उसी प्रक्रिया से “अनुपस्थित” पद पर आधारित ज्ञान को अंतर्स्थापित किया। इसलिए, अगली सेल्फ-अटेंशन आधारित लेयर “गैरहाज़िर” और “अनुपस्थित” पदों के संयुक्त ज्ञान और टोकन एम्बेडिंग पर ध्यान देगी।

जैसे कि “गैरहाज़िर” और “अनुपस्थित” दोनों पदों के लिए का ज्ञान का अंतर्स्थापन बहुत समान होगा, मॉडल को यह पता चल जाएगा कि ये दोनों समान पद हैं।

उपरोक्त उदाहरण में, हम शब्द-जाल से “द्रव्यमान” और “त्रिज्या” जैसे अनेकार्थी पदों के ज्ञान को अंतर्स्थापित करते हैं और इसे BERT के सेल्फ-अटेंशन लेयर में उसी के टोकन एम्बेडिंग के साथ जोड़ देते हैं।

इसलिए, अगली सेल्फ-अटेंशन लेयर अनेकार्थी पदों के संयुक्त ज्ञान अंतर्स्थापन और टोकन एम्बेडिंग पर ध्यान देगी और इससे मॉडल को इनपुट वाक्य को बेहतर ढंग से समझने में मदद मिलेगी।

कैसे अंतर्स्थापित ज्ञान अधिक संवाद करने योग्य दृढ़ विश्वास देता है:

हम उपरोक्त उदाहरण (दूसरी अंतिम पंक्ति) में देख सकते हैं कि, “ग्रीनहाउस प्रभाव” जैसे कॉन्सेप्ट आधारित पदों और “रोकने” और “अवशोषण” जैसे अनेकार्थी पदों को जोड़ने के बाद, इसमें न केवल हमने सही अनुमान लगाया, बल्कि जैसे-जैसे अधिक पद जुड़ते चले गए, अनुमान करने के दृढ़ विश्वास में भी 60.55% तक की बढ़ोत्तरी हुई।

जब हमने क्रमशः “सौर ऊर्जा” और “कारण” जैसी अनेकार्थी और कॉन्सेप्ट आधारित पदों को भी जोड़ा, तो दृढ़ विश्वास और भी बढ़कर 61.97% हो गया।

संक्षेप में, जैसा कि हम अधिक सार्थक पदों को जोड़ते हैं, इसने न केवल सही अनुमान लगाया ( इसके विपरीत वनीला BERT गलत अनुमान लगा रहा था) बल्कि इसने मॉडल के विश्वास में भी बढ़ोत्तरी की।

मेधा प्लेटफ़ॉर्म को Embibe में एजुकेशन रिसर्च लैब द्वारा बनाया गया है। एजुकेशन रिसर्च लैब एक विशिष्ट अनुशासित प्रयास है, जो प्रमुख अनिर्णीत समस्याओं को व्यापक प्रभाव के साथ पहचानता है और मूल मूल्य प्रस्तावों का आविष्कार करके अत्याधुनिक अनुसंधान को आगे बढ़ाता है।

संदर्भ:

[1] Gaur, Manas, Keyur Faldu, and Amit Sheth. “Semantics of the Black-Box: Can knowledge graphs help make deep learning systems more interpretable and explainable?.” IEEE Internet Computing 25, no. 1 (2021): 51-59.

[2] Faldu, Keyur, Amit Sheth, Prashant Kikani, and Hemang Akabari. “KI-BERT: Infusing Knowledge Context for Better Language and Domain Understanding.” arXiv preprint arXiv:2104.08145 (2021).

[3] Gaur, Manas, Ankit Desai, Keyur Faldu, and Amit Sheth. “Explainable AI Using Knowledge Graphs.” In ACM CoDS-COMAD Conference. 2020.

[4] Keyur Faldu. “Rise of Modern NLP and the Need of Interpretability!” Towards Data Science, August 2020.

[5] Keyur Faldu, Dr Amit Sheth. “Discovering the Encoded Linguistic Knowledge in NLP models.” Towards Data Science, September 2020.

[6] Keyur Faldu, Dr Amit Sheth. “Linguistics Wisdom of NLP Models.” Towards Data Science, November 2020.

[7] A. Sheth, M. Gaur, K. Roy and K. Faldu, “Knowledge-Intensive Language Understanding for Explainable AI,” in IEEE Internet Computing, vol. 25, no. 5, pp. 19-24, 1 Sept.-Oct. 2021, doi: 10.1109/MIC.2021.3101919

[8] Faldu, Keyur, Aditi Avasthi, and Achint Thomas. “Adaptive learning machine for score improvement and parts thereof.” U.S. Patent 10,854,099, issued December 1, 2020.

[9] Dhavala, Soma, Chirag Bhatia, Joy Bose, Keyur Faldu, and Aditi Avasthi. “Auto Generation of Diagnostic Assessments and Their Quality Evaluation.” International Educational Data Mining Society (2020).

[10] Faldu, Keyur, Achint Thomas, and Aditi Avasthi. “System and method for recommending personalized content using contextualized knowledge base.” U.S. Patent Application 16/586,512, filed October 1, 2020.

[11] Thomas, Achint, Keyur Faldu, and Aditi Avasthi. “System and method for personalized retrieval of academic content in a hierarchical manner.” U.S. Patent Application 16/740,223, filed October 1, 2020.

[12] “#RAISE2020 – Embibe – AI-Powered learning outcomes platform for personalized education”, MyGov India, Oct 2020, https://www.youtube.com/watch?v=kuwFtHgN3qU

← AI होम पर वापस जाएं