आर्टिफिशियल इंटेलिजेंस, मशीन लर्निंग और डीप लर्निंग
हमने पिछले भाग में आर्टिफिशियल इंटेलिजेंस (एआई) के बारे में बात की है। मशीन लर्निंग एक दृष्टिकोण है जिसका उपयोग AI डेवलपर्स द्वारा किसी सिस्टम को उसकी क्षमता में सुधार करने के लिए सीखने में सक्षम बनाने के लिए किया जाता है। हालाँकि मशीन लर्निंग का विचार 1950 के दशक में शुरू हुआ, मशीन लर्निंग की लोकप्रियता 1980 के दशक में कृत्रिम तंत्रिका नेटवर्क की शुरुआत के साथ शुरू हुई। एक कृत्रिम तंत्रिका नेटवर्क (एएनएन) मानव मस्तिष्क में न्यूरॉन्स की प्रणाली की नकल करता है।
कृत्रिम तंत्रिका नेटवर्क (Artificial Neural Network )
कृत्रिम तंत्रिका नेटवर्क (एएनएन) में नोड्स की तीन परतें शामिल होती हैं, जैसा चित्र 6 में दिखाया गया है: इनपुट परत, छिपी हुई परत और आउटपुट परत। प्रत्येक नोड एक न्यूरॉन का प्रतिनिधित्व करता है, जो दूसरे से जुड़ता है, और इसका एक संबद्ध वजन और सीमा होती है। यदि किसी व्यक्तिगत नोड का आउटपुट निर्दिष्ट सीमा मान से ऊपर है, तो वह नोड सक्रिय हो जाता है, और डेटा को नेटवर्क की अगली परत पर भेजता है। अन्यथा, कोई भी डेटा नेटवर्क की अगली परत तक नहीं भेजा जाता है।
चित्र 6. कृत्रिम तंत्रिका नेटवर्क।
डीप लर्निंग Deep Learning
डीप लर्निंग एक अधिक उन्नत प्रकार की मशीन लर्निंग है जो प्रसंस्करण इकाइयों की कई परतों के साथ विशाल कृत्रिम तंत्रिका नेटवर्क का उपयोग करती है, कंप्यूटिंग शक्ति और बेहतर प्रशिक्षण तकनीकों में प्रगति का लाभ उठाते हुए, बड़ी मात्रा में डेटा में जटिल पैटर्न को पहचानने और सीखने के लिए इसका प्रयोग होता है , जैसा कि दिखाया गया है चित्र 7 में.
डीप लर्निंग के सामान्य अनुप्रयोगों में छवि और वाक् पहचान शामिल हैं (image and speech recognition.)।
चित्र 7. डीप लर्निंग।
पारंपरिक प्रोग्रामिंग (Traditional Programming )प्रोग्रामिंग एक कंप्यूटर प्रोग्राम विकसित करने की प्रक्रिया है। पारंपरिक प्रोग्रामिंग एक मैन्युअल प्रक्रिया है। इसका तात्पर्य यह है कि एक व्यक्ति (प्रोग्रामर) एक प्रोग्रामिंग भाषा में प्रोग्राम बनाता है। प्रोग्रामिंग भाषा एक प्रकार की भाषा है जिसका उपयोग कंप्यूटर प्रोग्राम लिखने के लिए किया जा सकता है। कई प्रोग्रामिंग भाषाएँ मौजूद हैं। कुछ आधुनिक प्रोग्रामिंग भाषाएँ C, C++, Java, R और Python हैं
C को 1970 के दशक में डेनिस रिची द्वारा बनाया गया था और इसका व्यापक रूप से उपयोग किया जाता है।
C++ एक ऑब्जेक्ट-ओरिएंटेड प्रोग्रामिंग भाषा है जिसे 1985 में Bjarne Stroustrup द्वारा बनाया गया था।
जावा एक क्लास-आधारित ऑब्जेक्ट-ओरिएंटेड प्रोग्रामिंग भाषा है, जिसे पहली बार 1995 में सन माइक्रोसिस्टम्स द्वारा जारी किया गया था।
पायथन 1991 में बनाई गई एक सामान्य प्रयोजन प्रोग्रामिंग भाषा है। यह AI, डेटा साइंस और मशीन लर्निंग के लिए सबसे लोकप्रिय भाषा है।
आर डेटा वैज्ञानिक और सांख्यिकी कंप्यूटिंग के लिए एक और लोकप्रिय भाषा है
हम अपने दैनिक जीवन में जिस भाषा का प्रयोग करते हैं, जैसे अंग्रेजी, मलय या चीनी, उसे नेचुरल लैंग कहते हैं
पारंपरिक प्रोग्रामिंग बनाम मशीन लर्निंग प्रोग्रामिंग (Traditional Programming vs. Machine Learning Programming)
आउटपुट प्राप्त करने के लिए, एक प्रोग्राम को इनपुट डेटा के साथ चलाना होगा।
इनपुट + प्रोग्राम = आउटपुट
पारंपरिक प्रोग्रामिंग।
दूसरी ओर, मशीन लर्निंग प्रोग्रामिंग में, प्रोग्राम बनाने के लिए एल्गोरिदम स्वचालित रूप से दिए गए इनपुट और आउटपुट डेटा से नियम बनाता है। प्रोग्राम को पूर्वानुमानित मॉडल कहा जाता है।
इनपुट + आउटपुट = प्रोग्राम
मशीन लर्निंग प्रोग्रामिंग।
उदाहरण के लिए, यदि हम छात्रों की जनसांख्यिकी और परीक्षा परिणामों को इनपुट डेटा के रूप में उपयोग करते हैं और ऐतिहासिक छात्र स्वीकृति दरों को हमारे आउटपुट डेटा के रूप में उपयोग करते हैं, तो एल्गोरिदम एक पूर्वानुमानित मॉडल तैयार करेगा जो भविष्यवाणी कर सकता है कि कोई चयनित छात्र विश्वविद्यालय के प्रस्ताव को स्वीकार करेगा या नहीं।
मशीन लर्निंग का इतिहास (History of Machine Learning )
मशीन लर्निंग का संक्षिप्त इतिहास चित्र 10 में दिखाया गया है।
चित्र 10. मशीन लर्निंग का इतिहास।
आइए इनमें से प्रत्येक के बारे में विस्तार से जानें।
आर्थर सैमुअल - चेकर्स (Arthur Samuel - Checkers)
मशीन लर्निंग का इतिहास 1950 के दशक में शुरू हुआ जब आईबीएम के आर्थर सैमुअल ने चेकर्स खेलने के लिए एक कंप्यूटर प्रोग्राम विकसित किया।उनका उद्देश्य एक ऐसा कंप्यूटर प्रोग्राम लिखना था जो प्रोग्राम लिखने वाले व्यक्ति से बेहतर चेकर्स गेम खेलना सीख सके।कंप्यूटर प्रोग्राम का मुख्य चालक बोर्ड स्थितियों का एक खोज वृक्ष था, जिसे वर्तमान स्थिति से प्राप्त किया जा सकता था।चूँकि प्रोग्राम में बहुत कम मात्रा में कंप्यूटर मेमोरी उपलब्ध थी, इसलिए सैमुअल ने अल्फा-बीटा प्रूनिंग नामक कार्य शुरू किया। उनके डिज़ाइन में बोर्ड पर टुकड़ों की स्थिति का उपयोग करके एक स्कोरिंग फ़ंक्शन शामिल था।
स्कोरिंग फ़ंक्शन ने प्रत्येक पक्ष की जीत की संभावना को मापने का प्रयास किया। प्रोग्राम ने मिनिमैक्स रणनीति का उपयोग करके अपना अगला कदम चुना, जो अंततः मिनिमैक्स एल्गोरिदम में विकसित हुआ।
मिनिमैक्स एक ऐसी रणनीति है जिसका उपयोग एक पक्ष द्वारा सबसे खराब संभावित परिणामों में से सबसे अच्छा विकल्प चुनने के लिए किया जा सकता है।सैमुअल ने अपने कार्यक्रम को बेहतर बनाने के लिए कुछ तंत्र भी डिज़ाइन किए। जिसे सैमुअल ने रटना कहा, उसके कार्यक्रम ने उन सभी स्थितियों को रिकॉर्ड/याद रखा जो उसने पहले ही देखी थीं और इसे इनाम फ़ंक्शन के मूल्यों के साथ जोड़ दिया। आर्थर सैमुअल पहली बार 1959 में "मशीन लर्निंग" वाक्यांश के साथ आए।
फ्रैंक रोसेनब्लैट - परसेप्ट्रॉन (Frank Rosenblatt - Perceptron)
1949 में, कनाडाई मनोवैज्ञानिक डोनाल्ड हेब्ब (1904-1985) ने मस्तिष्क कोशिका अंतःक्रिया का मॉडल पेश किया।1957 में, कॉर्नेल एयरोनॉटिकल प्रयोगशाला में फ्रैंक रोसेनब्लैट नाम के एक शोधकर्ता ने डोनाल्ड हेब्ब के मस्तिष्क कोशिका संपर्क के मॉडल को आर्थर सैमुअल के मशीन सीखने के प्रयासों के साथ जोड़ा और परसेप्ट्रॉन बनाया।परसेप्ट्रॉन की शुरुआत में एक मशीन के रूप में योजना बनाई गई थी, न कि एक प्रोग्राम के रूप में।मूल रूप से IBM 704 के लिए डिज़ाइन किया गया सॉफ़्टवेयर, मार्क 1 परसेप्ट्रॉन नामक एक कस्टम-निर्मित मशीन में स्थापित किया गया था, जिसका निर्माण छवि पहचान के लिए किया गया था।
इसने सॉफ्टवेयर और एल्गोरिदम को हस्तांतरणीय और अन्य मशीनों के लिए उपलब्ध बना दिया। पहले सफल न्यूरो कंप्यूटर के रूप में वर्णित, मार्क 1 परसेप्ट्रॉन कई प्रकार के दृश्य पैटर्न को नहीं पहचान सका, जिससे निराशा हुई और तंत्रिका नेटवर्क अनुसंधान रुक गया।
वापनिक और चेर्वोनेंकिस - सपोर्ट वेक्टर मशीन (Vapnik and Chervonenkis - Support Vector Machine)
1960 के दशक की शुरुआत में, कई समूह नियतात्मक दृष्टिकोण के आधार पर सीखने की पहचान प्रणालियों के डिजाइन और परीक्षण में लगे हुए थे।1964 में, दो रूसी कंप्यूटर वैज्ञानिकों, व्लादिमीर वापनिक और एलेक्सी चेर्वोनेंकिस ने एक मशीन लर्निंग एल्गोरिदम का प्रस्ताव रखा, जिसने एक सपोर्ट वेक्टर मशीन, डेटा वर्गीकरण और प्रतिगमन विश्लेषण के लिए एक एल्गोरिदम का आधार बनाया।
पॉल वर्बोस - न्यूरल नेटवर्क (Paul Werbos - Neural Network)
मशीन लर्निंग के पीछे प्रेरक शक्ति कृत्रिम तंत्रिका नेटवर्क या एएनएन की अवधारणा है।एएनएन को लोकप्रिय बनाने के लिए जिम्मेदार व्यक्ति पॉल जॉन वर्बोस थे, जिन्होंने अपनी 1974 की पीएचडी थीसिस के माध्यम से त्रुटियों के बैक-प्रचार के माध्यम से कृत्रिम तंत्रिका नेटवर्क को प्रशिक्षित करने की प्रक्रिया का वर्णन किया था।1982 में, उन्होंने सेप्पो लिन्नैन्मा द्वारा शुरू की गई स्वचालित विभेदीकरण पद्धति को एएनएन में इस तरह लागू किया कि इसका व्यापक रूप से उपयोग किया जाने लगा। बहुत बड़े पैमाने पर एकीकरण (वीएलएसआई) के विकास ने 1980 के दशक में व्यावहारिक एएनएन उपयोग के लिए अधिक प्रसंस्करण शक्ति प्रदान की।
वर्तमान में एमएल - बड़ा डेटा (ML at Present - Big Data)
21वीं सदी की शुरुआत कृत्रिम बुद्धिमत्ता (एआई) और मशीन लर्निंग के इतिहास में एक महत्वपूर्ण मोड़ साबित हुई। इसे तीन समकालिक रुझानों द्वारा समझाया गया है, जिनका एक साथ ध्यान देने योग्य सहक्रियात्मक प्रभाव था।पहला था बड़ा डेटा, जो उस डेटा को संदर्भित करता है जो इतना बड़ा, तेज़ या जटिल है कि पारंपरिक तरीकों का उपयोग करके उन्हें संसाधित करना मुश्किल या असंभव है।यह शब्द 1990 के दशक में उत्पन्न हुआ था, लेकिन यह 2000 के दशक की शुरुआत में लोकप्रिय हो गया जब उद्योग विश्लेषक डौग लेन ने बड़े डेटा की अब-मुख्यधारा परिभाषा को तीन बनाम के रूप में व्यक्त किया: मात्रा, वेग और विविधता।
बड़े डेटा (बिग डेटा ) के उदाहरण:
• न्यूयॉर्क स्टॉक एक्सचेंज प्रति दिन लगभग एक टेराबाइट नया व्यापार डेटा उत्पन्न करता है।
• फेसबुक हर दिन 500+ टेराबाइट नया डेटा जेनरेट करता है।
• एक एकल जेट इंजन 30 मिनट की उड़ान में 10 टेराबाइट डेटा उत्पन्न कर सकता है। प्रति दिन हजारों उड़ानों के साथ, डेटा उत्पादन कई पेटाबाइट्स तक पहुंच जाता है।
वर्तमान में एमएल - समानांतर कंप्यूटर (ML at Present - Parallel Computer)
दूसरी प्रवृत्ति समानांतर कंप्यूटिंग में प्रगति थी। 2004 में, Google ने अपनी MapReduce तकनीक का अनावरण किया, इसके बाद 2006 में इसके ओपन-सोर्स समकक्ष Hadoop का अनावरण किया गया।MapReduce और Hadoop ने सरल प्रोसेसर के बीच बड़ी मात्रा में डेटा के प्रसंस्करण को वितरित करना संभव बना दिया।इस क्षेत्र में एक और विकास एनवीडिया द्वारा जीपीयू (ग्राफिक्स प्रोसेसिंग यूनिट) था।जीपीयू डेटा के कई टुकड़ों को एक साथ संसाधित कर सकते हैं, जिससे वे मशीन लर्निंग, वीडियो संपादन और अन्य गेमिंग अनुप्रयोगों के लिए उपयोगी हो जाते हैं।
वर्तमान में एमएल - डीप लर्निंग (ML at Present - Deep Learning)
तीसरी प्रवृत्ति डीप लर्निंग की उन्नति थी। वर्तमान में, मशीन लर्निंग का उपयोग कई क्षेत्रों में नए एप्लिकेशन विकसित करने के लिए किया जा रहा है, जैसे:
• चेहरे की पहचान
• स्व-चालित वाहन और
• धोखाधड़ी का पता लगाना
नवंबर 2022 में, OpenAl ने ChatGPT जारी किया, और तब से जेनरेटिव पूर्व-प्रशिक्षित ट्रांसफार्मर मॉडल अनुप्रयोगों की एक विस्तृत श्रृंखला के लिए भारी ध्यान आकर्षित कर रहा है। यूनेस्को- आईईएसएएलसी (2023) ने उच्च शिक्षा के लिए चैटजीपीटी पर एक त्वरित गाइड [पीडीएफ] जारी किया है।
मूल्यांकन : प्रथम इकाई के अंत में अधिगम की जांच करें तत्पश्चात इकाई 2 की तरफ बढ़े
आपके सीखने की यात्रा
आइए इकाई 2 आरंभ करें।
1 मशीन लर्निंग का परिचय (पूर्ण) 1 Introduction to Machine Learning (Completed)
2 मशीन लर्निंग के प्रकार (अगला) 2 Types of Machine Learning (Up next)
3 मशीन लर्निंग में नैतिक मुद्दे (आगामी) 3 Ethical Issues in Machine Learning (Upcoming)
4 मशीन लर्निंग के उपयोग मामले (आगामी) 4 Use Cases of Machine Learning (Upcoming)
5 मशीन लर्निंग एल्गोरिदम और मेट्रिक्स (आगामी) 5 Machine Learning Algorithms and Metrics (Upcoming)
6 मशीन लर्निंग फ्रेमवर्क (आगामी) 6 Machine Learning Frameworks (Upcoming)