एआई मॉडल बनाना नाटकीय लगता है - जैसे किसी फिल्म में कोई वैज्ञानिक विलक्षणताओं के बारे में बड़बड़ा रहा हो - जब तक आप इसे वास्तव में एक बार नहीं कर लेते। फिर आपको एहसास होता है कि यह आधा डेटा साफ-सफाई का काम है, आधा पेचीदा काम है, और अजीब तरह से लत लगाने वाला है। यह गाइड एआई मॉडल बनाने की पूरी प्रक्रिया बताती है: डेटा तैयार करना, प्रशिक्षण, परीक्षण, परिनियोजन, और हाँ - उबाऊ लेकिन महत्वपूर्ण सुरक्षा जाँचें। हम सरल भाषा में बात करेंगे, लेकिन विस्तार से जानकारी देंगे, और इमोजी का भी इस्तेमाल करेंगे, क्योंकि सच कहूँ तो, तकनीकी लेखन कर-भरने जैसा क्यों लगना चाहिए?
इस लेख के बाद आप ये लेख भी पढ़ सकते हैं:
🔗 एआई आर्बिट्रेज क्या है: इस चर्चित शब्द के पीछे की सच्चाई
इसमें एआई आर्बिट्रेज, इसके जोखिम, अवसर और वास्तविक दुनिया में इसके प्रभावों की व्याख्या की गई है।.
🔗 एआई ट्रेनर क्या है?
इसमें एआई ट्रेनर की भूमिका, कौशल और जिम्मेदारियों को शामिल किया गया है।.
🔗 सिंबॉलिक एआई क्या है: आपको इसके बारे में सब कुछ जानना चाहिए
यह लेख प्रतीकात्मक एआई की अवधारणाओं, इतिहास और व्यावहारिक अनुप्रयोगों का विस्तृत विश्लेषण प्रस्तुत करता है।.
एआई मॉडल क्या होता है - बुनियादी बातें ✅
एक "अच्छा" मॉडल वह नहीं है जो आपके डेवलपमेंट नोटबुक में 99% सटीकता हासिल कर ले और फिर प्रोडक्शन में आपको शर्मिंदा कर दे। बल्कि वह मॉडल है जो:
-
अच्छी तरह से परिभाषित → समस्या स्पष्ट है, इनपुट/आउटपुट स्पष्ट हैं, और मापदंड पर सहमति है।
-
डेटा-ईमानदार → डेटासेट वास्तव में अव्यवस्थित वास्तविक दुनिया को प्रतिबिंबित करता है, न कि किसी फ़िल्टर किए गए स्वप्न संस्करण को। वितरण ज्ञात, रिसाव बंद, लेबल अनुरेखणीय।
-
मजबूत → यदि किसी कॉलम का क्रम उलट जाता है या इनपुट में थोड़ा सा बदलाव होता है तो मॉडल ध्वस्त नहीं होता है।
-
विवेकपूर्ण मूल्यांकन → वास्तविकता के अनुरूप मापदंड, न कि लीडरबोर्ड की दिखावटीपन। ROC AUC देखने में आकर्षक लगता है, लेकिन कभी-कभी F1 या कैलिब्रेशन ही व्यवसाय के लिए मायने रखते हैं।
-
परिनियोजन योग्य → अनुमान लगाने का समय पूर्वानुमानित, संसाधन उपयुक्त, परिनियोजन के बाद की निगरानी शामिल।
-
जिम्मेदार → निष्पक्षता परीक्षण, व्याख्यात्मकता, दुरुपयोग के लिए सुरक्षा उपाय [1].
इन चरणों को पूरा करें और आप लगभग लक्ष्य के करीब पहुंच जाएंगे। बाकी सब बस दोहराव है... और थोड़ा सा अंतर्ज्ञान भी। 🙂
एक छोटी सी कहानी: धोखाधड़ी वाले मॉडल पर, कुल मिलाकर F1 शानदार लग रहा था। फिर हमने भौगोलिक स्थिति और "कार्ड मौजूद है या नहीं" के आधार पर विश्लेषण किया। आश्चर्य की बात यह थी कि एक हिस्से में गलत नकारात्मक परिणाम अचानक बढ़ गए। इससे सबक मिला - शुरुआत में ही विश्लेषण करो, बार-बार विश्लेषण करो।
त्वरित शुरुआत: एआई मॉडल बनाने का सबसे छोटा रास्ता ⏱️
-
कार्य को परिभाषित करें : वर्गीकरण, प्रतिगमन, रैंकिंग, अनुक्रम लेबलिंग, उत्पादन, अनुशंसा।
-
डेटा इकट्ठा करें : एकत्र करें, डुप्लीकेट हटाएं, ठीक से विभाजित करें (समय/इकाई), इसे प्रलेखित करें [1]।
-
बेसलाइन : हमेशा छोटे से शुरू करें - लॉजिस्टिक रिग्रेशन, टाइनी ट्री [3]।
-
एक मॉडल परिवार चुनें : सारणीबद्ध → ग्रेडिएंट बूस्टिंग; टेक्स्ट → छोटा ट्रांसफार्मर; विज़न → प्रीट्रेन्ड सीएनएन या बैकबोन [3][5]।
-
प्रशिक्षण लूप : अनुकूलक + प्रारंभिक स्टॉप; हानि और सत्यापन दोनों को ट्रैक करें [4]।
-
मूल्यांकन : क्रॉस-वैलिडेट करें, त्रुटियों का विश्लेषण करें, शिफ्ट के तहत परीक्षण करें।
-
पैकेज : वज़न सहेजें, प्रीप्रोसेसर, एपीआई रैपर [2].
-
मॉनिटर : बहाव, विलंबता, सटीकता क्षय देखें [2].
कागज़ पर तो यह सुव्यवस्थित लगता है। लेकिन व्यवहार में, यह अव्यवस्थित है। और यह ठीक है।.
तुलना तालिका: एआई मॉडल बनाने के लिए उपकरण 🛠️
| उपकरण / पुस्तकालय | के लिए सर्वश्रेष्ठ | कीमत | यह कैसे काम करता है (टिप्पणियाँ) |
|---|---|---|---|
| scikit-learn | सारणीबद्ध, आधार रेखाएँ | मुफ़्त - ओएसएस | स्वच्छ एपीआई, त्वरित प्रयोग; अभी भी क्लासिक्स जीतता है [3]. |
| पायटॉर्च | डीप लर्निंग | मुफ़्त - ओएसएस | गतिशील, पठनीय, विशाल समुदाय [4]. |
| TensorFlow + Keras | उत्पादन डीएल | मुफ़्त - ओएसएस | Keras के अनुकूल; TF Serving से परिनियोजन सुगम हो जाता है।. |
| जैक्स + अलसी | अनुसंधान + गति | मुफ़्त - ओएसएस | ऑटोडिफ़ + XLA = प्रदर्शन में वृद्धि।. |
| गले लगाने वाले चेहरे वाले ट्रांसफॉर्मर | एनएलपी, सीवी, ऑडियो | मुफ़्त - ओएसएस | पूर्वप्रशिक्षित मॉडल + पाइपलाइन... शेफ्स किस [5]. |
| XGBoost/LightGBM | सारणीबद्ध प्रभुत्व | मुफ़्त - ओएसएस | अक्सर मामूली डेटासेट पर डीएल से बेहतर प्रदर्शन करता है।. |
| FastAI | फ्रेंडली डीएल | मुफ़्त - ओएसएस | उच्च-स्तरीय, क्षमाशील डिफ़ॉल्ट सेटिंग्स।. |
| क्लाउड ऑटोएमएल (विभिन्न) | नो/लो-कोड | उपयोग-आधारित $ | खींचें, छोड़ें, तैनात करें; आश्चर्यजनक रूप से मजबूत।. |
| ONNX रनटाइम | अनुमान गति | मुफ़्त - ओएसएस | परोसने का बेहतरीन तरीका, किनारों के लिए अनुकूल।. |
दस्तावेज़ जिन्हें आप बार-बार खोलेंगे: scikit-learn [3], PyTorch [4], Hugging Face [5].
चरण 1 - समस्या को एक वैज्ञानिक की तरह समझें, न कि किसी नायक की तरह 🎯
कोड लिखने से पहले, यह बात ज़ोर से बोलें: यह मॉडल किस निर्णय को प्रभावित करेगा? यदि यह अस्पष्ट है, तो डेटासेट की गुणवत्ता खराब होगी।
-
पूर्वानुमान लक्ष्य → एकल कॉलम, एकल परिभाषा। उदाहरण: 30 दिनों के भीतर ग्राहक सेवा बंद होना?
-
बारीकी → प्रति उपयोगकर्ता, प्रति सत्र, प्रति आइटम - इन्हें आपस में न मिलाएं। डेटा लीक होने का खतरा बहुत बढ़ जाता है।
-
बाधाएँ → विलंबता, मेमोरी, गोपनीयता, एज बनाम सर्वर।
-
सफलता का मापदंड → एक प्राथमिक + कुछ सहायक कारक। असंतुलित कक्षाएँ? AUPRC + F1 का उपयोग करें। प्रतिगमन? जब माध्यिकाएँ मायने रखती हैं तो MAE, RMSE से बेहतर परिणाम दे सकता है।
अनुभव से मिली सीख: इन प्रतिबंधों और मापदंड को README के पहले पृष्ठ पर लिखें। इससे भविष्य में प्रदर्शन और विलंबता के टकराव की स्थिति में होने वाले विवादों से बचा जा सकेगा।
चरण 2 - डेटा संग्रह, सफाई और विभाजन जो वास्तव में टिकाऊ हों 🧹📦
डेटा ही मॉडल है। आप यह जानते हैं। फिर भी, इसमें कुछ कमियां भी हैं:
-
उत्पत्ति → यह कहाँ से आया, इसका मालिक कौन है, किस नीति के तहत [1].
-
लेबल → सख्त दिशानिर्देश, अंतर-एनोटेटर जांच, लेखापरीक्षा।
-
डुप्लिकेशन हटाना → छिपे हुए डुप्लिकेट मेट्रिक्स को बढ़ा देते हैं।
-
विभाजन → यादृच्छिक विभाजन हमेशा सही नहीं होते। पूर्वानुमान के लिए समय-आधारित विभाजन का उपयोग करें, और उपयोगकर्ता डेटा लीक से बचने के लिए इकाई-आधारित विभाजन का उपयोग करें।
-
जानकारी का रिसाव → प्रशिक्षण के समय भविष्य में झाँकना मना है।
-
दस्तावेज़ स्कीमा, संग्रह, पूर्वाग्रहों के साथ एक त्वरित डेटा कार्ड
प्रक्रिया: , अंतिम रूप देने तक एक ऐसा परीक्षण सेट सुरक्षित रखें जिसे कभी न छुआ जाए
चरण 3 - पहले आधारभूत रेखाएँ: वह सरल मॉडल जो महीनों का समय बचाता है 🧪
आधारभूत स्तर आकर्षक नहीं होते, लेकिन वे अपेक्षाओं को आधार प्रदान करते हैं।.
-
सारणीबद्ध → scikit-learn लॉजिस्टिक रिग्रेशन या रैंडम फ़ॉरेस्ट, फिर XGBoost/LightGBM [3].
-
टेक्स्ट → TF-IDF + लीनियर क्लासिफायर। ट्रांसफॉर्मर्स से पहले सत्यता की जाँच।
-
परिकल्पना → छोटा सीएनएन या पूर्वप्रशिक्षित बैकबोन, फ्रोजन लेयर्स।
अगर आपका डीप नेट बेसलाइन से थोड़ा ही बेहतर प्रदर्शन कर रहा है, तो चिंता न करें। कभी-कभी सिग्नल उतना मजबूत नहीं होता।.
चरण 4 - डेटा के अनुरूप मॉडलिंग दृष्टिकोण चुनें 🍱
तालिका का
ग्रेडिएंट बूस्टिंग सबसे पहले - बेहद प्रभावी। फीचर इंजीनियरिंग (इंटरैक्शन, एन्कोडिंग) अभी भी महत्वपूर्ण है।.
मूलपाठ
हल्के फाइन-ट्यूनिंग के साथ पूर्वप्रशिक्षित ट्रांसफॉर्मर। यदि विलंबता मायने रखती है तो डिस्टिल्ड मॉडल [5]। टोकनाइज़र भी मायने रखते हैं। त्वरित लाभ के लिए: एचएफ पाइपलाइन।.
इमेजिस
प्री-ट्रेन्ड बैकबोन से शुरुआत करें और हेड को फाइन-ट्यून करें। फिर वास्तविक रूप से ऑगमेंटेशन करें (फ्लिप, क्रॉप, जिटर)। बहुत कम डेटा के लिए, फ्यू-शॉट या लीनियर प्रोब्स का उपयोग करें।.
समय श्रृंखला
बुनियादी बातें: लैग फीचर्स, मूविंग एवरेज। पारंपरिक ARIMA बनाम आधुनिक बूस्टेड ट्री। सत्यापन में हमेशा समय क्रम का सम्मान करें।.
सामान्य नियम: एक छोटा, स्थिर मॉडल > एक अतिविकसित दानव जैसा मॉडल।.
चरण 5 - प्रशिक्षण लूप, लेकिन इसे ज़्यादा जटिल न बनाएं 🔁
आपको बस इतना चाहिए: डेटा लोडर, मॉडल, लॉस, ऑप्टिमाइज़र, शेड्यूलर, लॉगिंग। बस हो गया।.
-
ऑप्टिमाइज़र : एडम या एसजीडी (मोमेंटम के साथ)। ज़्यादा बदलाव न करें।
-
बैच का आकार : बिना थ्रैशिंग के डिवाइस की मेमोरी का अधिकतम उपयोग करें।
-
नियमितीकरण : ड्रॉपआउट, वेट डीके, अर्ली स्टॉप।
-
मिश्रित परिशुद्धता : बहुत तेज़ गति में वृद्धि; आधुनिक ढाँचे इसे आसान बनाते हैं [4].
-
प्रजनन क्षमता : बीज बो दें। यह फिर भी हिलेगा। यह सामान्य है।
मानक पैटर्न के लिए PyTorch ट्यूटोरियल देखें [4]।.
चरण 6 - मूल्यांकन जो वास्तविकता को दर्शाता है, न कि लीडरबोर्ड अंकों को 🧭
केवल औसत ही नहीं, बल्कि स्लाइस की भी जांच करें:
-
अंशांकन → प्रायिकताओं का कुछ अर्थ होना चाहिए। विश्वसनीयता आरेख सहायक होते हैं।
-
भ्रम संबंधी अंतर्दृष्टि → सीमा वक्र, स्पष्ट समझौते।
-
त्रुटियों को क्षेत्र, डिवाइस, भाषा और समय के आधार पर वर्गीकृत करें। कमियों का पता लगाएं।
-
मजबूती → बदलावों के तहत परीक्षण करें, इनपुट को विक्षोभित करें।
-
ह्यूमन-इन-लूप → यदि लोग इसका उपयोग करते हैं, तो उपयोगिता का परीक्षण करें।
एक छोटा सा उदाहरण: रिकॉल स्कोर में एक गिरावट ट्रेनिंग और प्रोडक्शन के बीच यूनिकोड नॉर्मलाइज़ेशन में अंतर के कारण हुई। नुकसान? पूरे 4 अंक।
चरण 7 - बिना आंसू बहाए पैकेजिंग, सर्विंग और एमएलओपीएस 🚚
यहीं पर अक्सर परियोजनाएं विफल हो जाती हैं।.
-
आर्टिफैक्ट्स : मॉडल वेट, प्रीप्रोसेसर, कमिट हैश।
-
Env : पिन वर्ज़न, कंटेनराइज़ लीन.
-
इंटरफ़ेस : REST/gRPC
/health+/predict। -
विलंबता/थ्रूपुट : बैच अनुरोध, वार्म-अप मॉडल।
-
हार्डवेयर : क्लासिक गेम्स के लिए सीपीयू ठीक है; डाउनलोड के लिए जीपीयू। ONNX रनटाइम गति/पोर्टेबिलिटी को बढ़ाता है।
पूरी पाइपलाइन (सीआई/सीडी/सीटी, निगरानी, रोलबैक) के लिए, Google के एमएलओपीएस दस्तावेज़ ठोस हैं [2]।.
चरण 8 - बिना घबराहट के निगरानी, विचलन और पुनः प्रशिक्षण 📈🧭
मॉडल पुराने पड़ जाते हैं। उपयोगकर्ता विकसित होते हैं। डेटा पाइपलाइनें गलत तरीके से काम करती हैं।.
-
डेटा जांच : स्कीमा, रेंज, नल मान।
-
भविष्यवाणियाँ : वितरण, बहाव मैट्रिक्स, आउटलायर्स।
-
प्रदर्शन : लेबल प्राप्त होने के बाद, मेट्रिक्स की गणना करें।
-
अलर्ट : विलंबता, त्रुटियाँ, विचलन।
-
पुनर्प्रशिक्षण की गति : ट्रिगर-आधारित > कैलेंडर-आधारित।
लूप का दस्तावेजीकरण करें। विकी "आदिवासी स्मृति" से बेहतर है। गूगल सीटी प्लेबुक देखें [2]।.
जिम्मेदार एआई: निष्पक्षता, गोपनीयता, व्याख्यात्मकता 🧩🧠
यदि लोग प्रभावित होते हैं, तो जिम्मेदारी लेना वैकल्पिक नहीं है।.
-
निष्पक्षता परीक्षण → संवेदनशील समूहों में मूल्यांकन करें, यदि कमियां हों तो कम करें [1].
-
व्याख्यात्मकता → सारणीबद्ध के लिए SHAP, गहन विश्लेषण के लिए एट्रिब्यूशन। सावधानी से प्रयोग करें।
-
गोपनीयता/सुरक्षा → व्यक्तिगत पहचान योग्य जानकारी को कम से कम करें, गुमनाम करें, सुविधाओं को सुरक्षित करें।
-
नीति → इच्छित बनाम निषिद्ध उपयोग लिखें। बाद में परेशानी से बचाता है [1].
एक छोटा सा संक्षिप्त अवलोकन 🧑🍳
मान लीजिए कि हम समीक्षाओं को वर्गीकृत कर रहे हैं: सकारात्मक बनाम नकारात्मक।.
-
डेटा → समीक्षाएँ एकत्र करें, डुप्लिकेशन हटाएं, समय के अनुसार विभाजित करें [1].
-
बेसलाइन → टीएफ-आईडीएफ + लॉजिस्टिक रिग्रेशन (स्किकिट-लर्न) [3].
-
अपग्रेड → हगिंग फेस [5] के साथ छोटा प्रीट्रेन्ड ट्रांसफॉर्मर।
-
ट्रेन → कुछ युग, जल्दी रुकना, ट्रैक F1 [4].
-
Eval → कन्फ्यूजन मैट्रिक्स, प्रेसिजन@रिकॉल, कैलिब्रेशन।
-
पैकेज → टोकनाइज़र + मॉडल, फास्टएपीआई रैपर [2].
-
मॉनिटर → श्रेणियों में विचलन देखें [2].
-
जिम्मेदार बदलाव → पी.आई.आई. को फ़िल्टर करें, संवेदनशील डेटा का सम्मान करें [1].
कम लेटेंसी चाहिए? मॉडल को डिस्टिल करें या ONNX में एक्सपोर्ट करें।.
आम गलतियाँ जो मॉडल्स को देखने में तो होशियार बनाती हैं लेकिन असल में उन्हें बेवकूफ साबित करती हैं 🙃
-
लीकी फीचर्स (प्रशिक्षण के समय घटना के बाद का डेटा)।
-
गलत मापदंड (AUC जब टीम रिकॉल पर ध्यान देती है)।
-
छोटा वैल सेट (शोरगुल भरा "सफलता")।
-
वर्ग असंतुलन को नजरअंदाज किया गया.
-
प्रीप्रोसेसिंग में विसंगति (ट्रेन बनाम सर्व)।
-
बहुत जल्दी अत्यधिक अनुकूलन करना.
-
बाधाओं को भूल जाना (मोबाइल ऐप में विशाल मॉडल)।
ऑप्टिमाइज़ेशन ट्रिक्स 🔧
-
बेहतर जोड़ें : ठोस नकारात्मक परिणाम, यथार्थवादी संवर्धन।
-
अधिक नियमितीकरण करें: ड्रॉपआउट, छोटे मॉडल।.
-
सीखने की दर अनुसूचियाँ (कोसाइन/स्टेप)।.
-
सामूहिक सफाई - बड़ा होना हमेशा बेहतर नहीं होता।.
-
गति के लिए मिश्रित परिशुद्धता + वेक्टरकरण [4].
-
परिमाणीकरण, मॉडलों को सुव्यवस्थित करने के लिए छंटाई।.
-
कैश एम्बेडिंग/प्री-कंप्यूट हैवी ऑपरेशंस।.
डेटा लेबलिंग जो ध्वस्त न हो 🏷️
-
दिशा-निर्देश: विस्तृत, विशेष परिस्थितियों सहित।.
-
लेबल लगाने वालों को प्रशिक्षित करें: अंशांकन कार्य, सहमति जांच।.
-
गुणवत्ता: सोने के सेट, त्वरित जांच।.
-
उपकरण: संस्करणित डेटासेट, निर्यात योग्य स्कीमा।.
-
नैतिकता: उचित वेतन, जिम्मेदार सोर्सिंग। पूर्ण विराम [1].
तैनाती के तरीके 🚀
-
बैच स्कोरिंग → रात्रिकालीन कार्य, गोदाम।
-
रीयल-टाइम माइक्रोसर्विस → एपीआई को सिंक करें, कैशिंग जोड़ें।
-
स्ट्रीमिंग → घटना-आधारित, जैसे धोखाधड़ी।
-
एज → कंप्रेस, टेस्ट डिवाइस, ONNX/TensorRT.
रनबुक रखें: रोलबैक चरण, कलाकृति पुनर्स्थापना [2].
ये संसाधन आपके समय के लायक हैं 📚
-
बुनियादी बातें: scikit-learn उपयोगकर्ता मार्गदर्शिका [3]
-
डीएल पैटर्न: पायटॉर्च ट्यूटोरियल [4]
-
स्थानांतरण अधिगम: हगिंग फेस क्विकस्टार्ट [5]
-
शासन/जोखिम: एनआईएसटी एआई आरएमएफ [1]
-
एमएलओपीएस: गूगल क्लाउड प्लेबुक्स [2]
अक्सर पूछे जाने वाले प्रश्नों से संबंधित कुछ रोचक तथ्य 💡
-
क्या आपको जीपीयू की आवश्यकता है? सारणीबद्ध कार्यों के लिए नहीं। डाउनलोड के लिए, हाँ (क्लाउड रेंटल काम करता है)।
-
पर्याप्त डेटा है? लेबल अस्पष्ट होने तक अधिक डेटा अच्छा है। कम मात्रा से शुरू करें, धीरे-धीरे बढ़ाएं।
-
मीट्रिक का चुनाव? वह मीट्रिक जो लागत के अनुरूप हो। मैट्रिक्स लिखिए।
-
बेसलाइन छोड़ दें? आप छोड़ सकते हैं... ठीक वैसे ही जैसे आप नाश्ता छोड़ देते हैं और बाद में पछताते हैं।
-
ऑटोएमएल? बूटस्ट्रैपिंग के लिए बढ़िया। फिर भी अपने ऑडिट खुद करें [2]।
थोड़ी उलझी हुई सच्चाई 🎬
एआई मॉडल बनाने का तरीका जटिल गणित से कम और शिल्प कौशल से अधिक संबंधित है: सटीक रूपरेखा, स्वच्छ डेटा, आधारभूत सत्यता जांच, ठोस मूल्यांकन, दोहराने योग्य पुनरावृति। जिम्मेदारी जोड़ें ताकि भविष्य में आपको रोके जा सकने वाली गड़बड़ियों को ठीक न करना पड़े [1][2]।
सच तो यह है कि "साधारण" संस्करण - जो सटीक और व्यवस्थित होता है - अक्सर शुक्रवार की सुबह 2 बजे जल्दबाजी में बनाए गए दिखावटी मॉडल से बेहतर होता है। और अगर आपका पहला प्रयास थोड़ा अटपटा लगे? तो यह सामान्य बात है। मॉडल खमीर की तरह होते हैं: उन्हें पोषण दें, उनका निरीक्षण करें, और कभी-कभी फिर से शुरू करें। 🥖🤷
संक्षेप में
-
फ्रेम समस्या + मीट्रिक; लीकेज को खत्म करें।.
-
पहले बुनियादी बातों पर ध्यान दें; सरल उपकरण बेहतरीन होते हैं।.
-
पूर्वप्रशिक्षित मॉडल मददगार होते हैं - उनकी पूजा न करें।.
-
स्लाइस के पार मूल्यांकन करें; अंशांकन करें।.
-
MLOps की मूल बातें: वर्ज़निंग, मॉनिटरिंग, रोलबैक।.
-
जिम्मेदार एआई अंतर्निहित है, न कि ऊपर से जोड़ा गया है।.
-
लगातार प्रयास करते रहिए, मुस्कुराइए - आपने एक एआई मॉडल बना लिया है। 😄
संदर्भ
-
NIST — कृत्रिम बुद्धिमत्ता जोखिम प्रबंधन ढांचा (AI RMF 1.0) । लिंक
-
गूगल क्लाउड — एमएलऑप्स: मशीन लर्निंग में निरंतर वितरण और स्वचालन पाइपलाइन । लिंक
-
scikit-learn — उपयोगकर्ता मार्गदर्शिका . लिंक
-
PyTorch — आधिकारिक ट्यूटोरियल । लिंक
-
हगिंग फेस — ट्रांसफॉर्मर्स क्विकस्टार्ट । लिंक