सर्वश्रेष्ठ ओपन सोर्स टेक्स्ट जनरेशन मॉडल

एक व्यावहारिक, बिल्डर-प्रथम मार्गदर्शिका चुनने के लिए सर्वोत्तम मुफ्त टेक्स्ट जनरेशन मॉडल—स्पष्ट ट्रेड-ऑफ्स, परिदृश्य द्वारा त्वरित चयन, और ShareAI Playground में उन्हें आज़माने के लिए एक-क्लिक तरीके के साथ।.
टीएल;डीआर
यदि आप चाहते हैं सर्वोत्तम ओपन सोर्स टेक्स्ट जनरेशन मॉडल्स अभी, तेज पुनरावृत्ति और कम लागत के लिए कॉम्पैक्ट, निर्देश-ट्यून रिलीज़ के साथ शुरू करें, फिर केवल आवश्यकता होने पर स्केल करें। अधिकांश टीमों के लिए:
- तेज प्रोटोटाइपिंग (लैपटॉप/CPU-अनुकूल): हल्के 1–7B निर्देश-ट्यून मॉडल आज़माएं; INT4/INT8 में क्वांटाइज़ करें।.
- उत्पादन-ग्रेड गुणवत्ता (संतुलित लागत/विलंबता): लंबे संदर्भ और कुशल KV कैश के साथ आधुनिक 7–14B चैट मॉडल।.
- बड़े पैमाने पर थ्रूपुट: विशेषज्ञों का मिश्रण (MoE) या होस्टेड एंडपॉइंट के पीछे उच्च दक्षता वाले घने मॉडल।.
- बहुभाषी: मजबूत गैर-अंग्रेजी प्रीट्रेनिंग और निर्देश मिश्रण वाले परिवारों को चुनें।.
👉 150+ मॉडल का अन्वेषण करें मॉडल मार्केटप्लेस (मूल्य, विलंबता, और प्रदाता प्रकार के लिए फ़िल्टर): मॉडल ब्राउज़ करें
या सीधे इसमें कूदें प्लेग्राउंड बिना किसी इंफ्रा के: प्लेग्राउंड में प्रयास करें
मूल्यांकन मानदंड (हमने कैसे चुना)
मॉडल गुणवत्ता संकेत
हम मजबूत निर्देश-अनुसरण, सुसंगत लंबे-रूप उत्पन्न करने, और प्रतिस्पर्धी बेंचमार्क संकेतकों (तर्क, कोडिंग, सारांश) की तलाश करते हैं। मानव मूल्यांकन और वास्तविक संकेत अधिक मायने रखते हैं बजाय लीडरबोर्ड स्नैपशॉट्स के।.
लाइसेंस स्पष्टता
“ओपन सोर्स” ≠ “ओपन वेट्स.” हम वाणिज्यिक तैनाती के लिए OSI-शैली के अनुमेय लाइसेंस को प्राथमिकता देते हैं, और हम स्पष्ट रूप से नोट करते हैं जब कोई मॉडल केवल ओपन-वेट्स है या उपयोग प्रतिबंध हैं।.
हार्डवेयर आवश्यकताएँ
VRAM/CPU बजट यह निर्धारित करते हैं कि “मुफ्त” वास्तव में कितना खर्च होता है। हम क्वांटाइजेशन उपलब्धता (INT8/INT4), संदर्भ विंडो आकार, और KV-कैश दक्षता पर विचार करते हैं।.
इकोसिस्टम परिपक्वता
टूलिंग (जेनरेशन सर्वर, टोकनाइज़र, एडाप्टर), LoRA/QLoRA समर्थन, संकेत टेम्पलेट्स, और सक्रिय रखरखाव सभी आपके मूल्य-तक-पहुंच को प्रभावित करते हैं।.
उत्पादन तत्परता
कम टेल लेटेंसी, अच्छे सुरक्षा डिफॉल्ट्स, अवलोकनीयता (टोकन/लेटेंसी मेट्रिक्स), और लोड के तहत सुसंगत व्यवहार लॉन्च को बना या बिगाड़ सकते हैं।.
शीर्ष ओपन सोर्स टेक्स्ट जनरेशन मॉडल (मुफ्त उपयोग के लिए)
नीचे प्रत्येक चयन में ताकत, आदर्श उपयोग-केस, संदर्भ नोट्स, और इसे स्थानीय रूप से या ShareAI के माध्यम से चलाने के व्यावहारिक सुझाव शामिल हैं।.
Llama परिवार (खुले वेरिएंट)
यह यहाँ क्यों है: व्यापक रूप से अपनाया गया, छोटे से मध्यम पैरामीटर रेंज में मजबूत चैट व्यवहार, मजबूत निर्देश-ट्यून किए गए चेकपॉइंट्स, और एडाप्टर और टूल्स का बड़ा इकोसिस्टम।.
सबसे अच्छा: सामान्य चैट, सारांश, वर्गीकरण, टूल-अवेयर प्रॉम्प्टिंग (संरचित आउटपुट)।.
संदर्भ और हार्डवेयर: कई वेरिएंट विस्तारित संदर्भ (≥8k) का समर्थन करते हैं। INT4 क्वांटाइजेशन सामान्य उपभोक्ता GPUs और यहां तक कि आधुनिक CPUs पर डेवलपमेंट/टेस्टिंग के लिए चलते हैं।.
इसे आज़माएं: Llama-परिवार मॉडल को फ़िल्टर करें मॉडल मार्केटप्लेस या खोलें प्लेग्राउंड.
Mistral / Mixtral श्रृंखला
यह यहाँ क्यों है: मजबूत निर्देश-ट्यून किए गए चैट वेरिएंट के साथ कुशल आर्किटेक्चर; MoE (जैसे Mixtral-शैली) उत्कृष्ट गुणवत्ता/विलंबता व्यापार-ऑफ प्रदान करता है।.
सबसे अच्छा: तेज़, उच्च-गुणवत्ता चैट; मल्टी-टर्न सहायता; लागत-प्रभावी स्केलिंग।.
संदर्भ और हार्डवेयर: क्वांटाइजेशन के लिए अनुकूल; MoE वेरिएंट सही तरीके से परोसे जाने पर उत्कृष्ट प्रदर्शन करते हैं (राउटर + बैचिंग)।.
इसे आज़माएं: प्रदाताओं और विलंबता की तुलना करें मॉडल ब्राउज़ करें.
Qwen परिवार
यह यहाँ क्यों है: मजबूत बहुभाषी कवरेज और निर्देश-अनुसरण; बार-बार सामुदायिक अपडेट; कॉम्पैक्ट आकारों में प्रतिस्पर्धी कोडिंग/चैट प्रदर्शन।.
सबसे अच्छा: बहुभाषी चैट और सामग्री निर्माण; संरचित, निर्देश-प्रधान प्रॉम्प्ट।.
संदर्भ और हार्डवेयर: CPU/GPU के लिए अच्छे छोटे-मॉडल विकल्प; लंबे संदर्भ वेरिएंट उपलब्ध।.
इसे आज़माएं: जल्दी लॉन्च करें प्लेग्राउंड.
Gemma परिवार (अनुमेय OSS वेरिएंट)
यह यहाँ क्यों है: छोटे आकार में साफ-सुथरा निर्देश-ट्यून व्यवहार; ऑन-डिवाइस पायलटों के लिए अनुकूल; मजबूत दस्तावेज़ीकरण और प्रॉम्प्ट टेम्पलेट।.
सबसे अच्छा: हल्के सहायक, उत्पाद माइक्रो-फ्लो (ऑटोकंप्लीट, इनलाइन सहायता), सारांश।.
संदर्भ और हार्डवेयर: लैपटॉप के लिए INT4/INT8 क्वांटाइजेशन की सिफारिश की जाती है; लंबे कार्यों के लिए टोकन सीमाओं पर ध्यान दें।.
इसे आज़माएं: देखें कि कौन से प्रदाता Gemma वेरिएंट को होस्ट करते हैं मॉडल ब्राउज़ करें.
Phi परिवार (हल्का/बजट)
यह यहाँ क्यों है: असाधारण रूप से छोटे मॉडल जो रोजमर्रा के कार्यों में अपने आकार से बेहतर प्रदर्शन करते हैं; जब लागत और विलंबता प्रमुख हों तो आदर्श।.
सबसे अच्छा: एज डिवाइस, केवल CPU सर्वर, या बैच ऑफ़लाइन निर्माण।.
संदर्भ और हार्डवेयर: क्वांटाइजेशन को पसंद करता है; CI परीक्षणों और स्केल करने से पहले स्मोक चेक के लिए बढ़िया।.
इसे आज़माएं: जल्दी तुलना चलाएं प्लेग्राउंड.
अन्य उल्लेखनीय कॉम्पैक्ट विकल्प
- निर्देश-ट्यून किए गए 3–7B चैट मॉडल कम-RAM सर्वरों के लिए अनुकूलित।.
- लंबे-संदर्भ व्युत्पन्न (≥32k) दस्तावेज़ QA और बैठक नोट्स के लिए।.
- कोडिंग-झुकाव छोटे मॉडल जब भारी कोड LLMs अधिक हो, तो इनलाइन डेवलपमेंट सहायता के लिए।.
टिप: लैपटॉप/CPU रन के लिए, INT4 से शुरू करें; केवल तभी INT8/BF16 पर जाएं जब आपके प्रॉम्प्ट्स के लिए गुणवत्ता में गिरावट हो।.
सर्वश्रेष्ठ “फ्री टियर” होस्टेड विकल्प (जब आप स्वयं-होस्ट नहीं करना चाहते हैं)
फ्री-टियर एंडपॉइंट्स प्रॉम्प्ट्स और UX को मान्य करने के लिए शानदार हैं, लेकिन दर सीमाएं और उचित उपयोग नीतियां जल्दी लागू होती हैं। विचार करें:
- समुदाय/प्रदाता एंडपॉइंट्स: बर्स्टी क्षमता, परिवर्तनशील दर सीमाएं, और कभी-कभी ठंडे शुरुआत।.
- स्थानीय बनाम होस्टेड के बीच समझौते: होस्टेड सादगी और पैमाने पर जीतता है; स्थानीय गोपनीयता, निश्चित विलंबता (एक बार गर्म होने पर), और शून्य सीमांत API लागत पर जीतता है।.
ShareAI कैसे मदद करता है: एक ही कुंजी के साथ कई प्रदाताओं को रूट करें, विलंबता और मूल्य निर्धारण की तुलना करें, और अपने ऐप को फिर से लिखे बिना मॉडल बदलें।.
- दो क्लिक में अपनी कुंजी बनाएं: API कुंजी बनाएं
- API त्वरित प्रारंभ का पालन करें: एपीआई संदर्भ
त्वरित तुलना तालिका
| मॉडल परिवार | लाइसेंस शैली | पैरामीटर (सामान्य) | संदर्भ विंडो | अनुमान शैली | सामान्य VRAM (INT4→BF16) | ताकतें | आदर्श कार्य |
|---|---|---|---|---|---|---|---|
| लामा-परिवार | ओपन वेट्स / अनुमेय प्रकार | 7–13बी | 8के–32के | जीपीयू/सीपीयू | ~6–26GB | सामान्य चैट, निर्देश | सहायक, सारांश |
| मिस्ट्रल/मिक्स्ट्रल | ओपन वेट्स / अनुमेय प्रकार | 7B / MoE | 8के–32के | GPU (CPU विकास) | ~6–30GB* | गुणवत्ता/विलंबता संतुलन | उत्पाद सहायक |
| क्यूवेन | अनुमेय OSS | 7–14B | 8के–32के | जीपीयू/सीपीयू | ~6–28GB | बहुभाषी, निर्देश | वैश्विक सामग्री |
| जेम्मा | अनुमेय OSS | 2–9बी | 4के–8के+ | जीपीयू/सीपीयू | ~3–18जीबी | छोटा, साफ़ चैट | ऑन-डिवाइस पायलट्स |
| फाई | अनुमेय OSS | 2–4बी | 4के–8के | सीपीयू/जीपीयू | ~2–10जीबी | छोटा और कुशल | एज, बैच जॉब्स |
सही मॉडल कैसे चुनें (3 परिदृश्य)
1) बजट में एक MVP शिपिंग करने वाला स्टार्टअप
- शुरू करें छोटे निर्देश-ट्यून (3–7B); क्वांटाइज़ करें और UX लेटेंसी मापें।.
- उपयोग करें प्लेग्राउंड प्रॉम्प्ट्स को ट्यून करने के लिए, फिर कोड में वही टेम्पलेट वायर करें।.
- जोड़ें फॉलबैक (थोड़ा बड़ा मॉडल या प्रदाता मार्ग) विश्वसनीयता के लिए।.
- प्रोटोटाइप बनाएं प्लेग्राउंड
- एक API कुंजी उत्पन्न करें: API कुंजी बनाएं
- के माध्यम से ड्रॉप-इन करें एपीआई संदर्भ
2) उत्पाद टीम मौजूदा ऐप में सारांश और चैट जोड़ रही है
- प्राथमिकता दें 7–14B मॉडलों को लंबे संदर्भ के साथ; स्थिर प्रदाता SKUs पर पिन करें।.
- जोड़ें अवलोकनीयता (टोकन गिनती, p95 विलंबता, त्रुटि दर)।.
- बार-बार उपयोग होने वाले प्रॉम्प्ट्स को कैश करें; सिस्टम प्रॉम्प्ट्स को छोटा रखें; टोकन स्ट्रीम करें।.
- मॉडल उम्मीदवार और विलंबता: मॉडल ब्राउज़ करें
- रोल-आउट चरण: उपयोगकर्ता गाइड
3) डेवलपर्स जिन्हें ऑन-डिवाइस या एज इन्फरेंस की आवश्यकता है
- शुरू करें फाई/जेम्मा/कॉम्पैक्ट क्वेन, क्वांटाइज़्ड किया गया आईएनटी4.
- संदर्भ आकार सीमित करें; टोकन को कम करने के लिए कार्यों को संयोजित करें (पुनः रैंक → उत्पन्न करें)।.
- एक ShareAI प्रदाता एंडपॉइंट रखें भारी प्रॉम्प्ट्स के लिए एक कैच-ऑल के रूप में।.
- दस्तावेज़ होम: प्रलेखन
- प्रदाता पारिस्थितिकी तंत्र: प्रदाता गाइड
व्यावहारिक मूल्यांकन नुस्खा (कॉपी/पेस्ट)।
प्रॉम्प्ट टेम्पलेट्स (चैट बनाम पूर्णता)
# चैट (सिस्टम + उपयोगकर्ता + सहायक).
सुझाव: सिस्टम प्रॉम्प्ट्स को छोटा और स्पष्ट रखें। संरचित आउटपुट्स (JSON या बुलेट सूची) को प्राथमिकता दें जब आप परिणामों को पार्स करेंगे।.
छोटा गोल्डन सेट + स्वीकृति सीमा
- बनाएं एक 10–50 आइटम प्रॉम्प्ट सेट अपेक्षित उत्तरों के साथ।.
- परिभाषित करें पास/फेल नियम (रेगुलर एक्सप्रेशन, कीवर्ड कवरेज, या जज प्रॉम्प्ट्स)।.
- ट्रैक करें जीत-दर और विलंबता उम्मीदवार मॉडलों के बीच।.
गार्डरेल्स और सुरक्षा जांच (PII/रेड फ्लैग्स)
- स्पष्ट गालियां और PII रेगुलर एक्सप्रेशन (ईमेल, SSNs, क्रेडिट कार्ड) को ब्लॉक करें।.
- जोड़ें अस्वीकार। प्रणाली में जोखिम भरे कार्यों के लिए नीतियां संकेत देती हैं।.
- असुरक्षित इनपुट को एक सख्त मॉडल या मानव समीक्षा पथ पर भेजें।.
अवलोकनीयता
- लॉग संकेत, मॉडल, टोकन इन/आउट, अवधि, प्रदाता.
- p95 विलंबता और असामान्य टोकन स्पाइक्स पर अलर्ट।.
- एक नोटबुक पुनः चलाएं समय के साथ मॉडल परिवर्तनों की तुलना करने के लिए।.
परिनियोजन और अनुकूलन (स्थानीय, क्लाउड, हाइब्रिड)
स्थानीय त्वरित प्रारंभ (CPU/GPU, क्वांटाइजेशन नोट्स)
- क्वांटाइज करें आईएनटी4 लैपटॉप के लिए; गुणवत्ता सत्यापित करें और आवश्यकता होने पर सुधार करें।.
- UX की त्वरितता बनाए रखने के लिए आउटपुट स्ट्रीम करें।.
- संदर्भ लंबाई सीमित करें; बड़े संकेतों के बजाय पुनः रैंक+उत्पन्न करना पसंद करें।.
क्लाउड इन्फरेंस सर्वर (OpenAI-संगत राउटर)
- OpenAI-संगत SDK का उपयोग करें और सेट करें बेस URL एक ShareAI प्रदाता एंडपॉइंट पर।.
- छोटे अनुरोधों को बैच करें जहां यह UX को नुकसान नहीं पहुंचाता।.
- वार्म पूल और छोटे टाइमआउट टेल लेटेंसी को कम रखते हैं।.
फाइन-ट्यूनिंग और एडेप्टर्स (LoRA/QLoRA)
- चुनें एडेप्टर्स छोटे डेटा (<10k नमूने) और तेज़ पुनरावृत्तियों के लिए।.
- ध्यान केंद्रित करें फॉर्मेट-फिडेलिटी (आपके डोमेन टोन और स्कीमा से मेल खाते हुए)।.
- शिपिंग से पहले अपने गोल्डन सेट के खिलाफ मूल्यांकन करें।.
लागत-नियंत्रण रणनीतियाँ
- बार-बार उपयोग होने वाले प्रॉम्प्ट्स और संदर्भों को कैश करें।.
- सिस्टम प्रॉम्प्ट्स को ट्रिम करें; कुछ-शॉट उदाहरणों को डिस्टिल्ड गाइडलाइन्स में समेटें।.
- जब गुणवत्ता “पर्याप्त अच्छी” हो तो कॉम्पैक्ट मॉडल को प्राथमिकता दें; केवल कठिन प्रॉम्प्ट्स के लिए बड़े मॉडल आरक्षित करें।.
टीमें ओपन मॉडल्स के लिए ShareAI का उपयोग क्यों करती हैं

150+ मॉडल्स, एक कुंजी
एक स्थान पर ओपन और होस्टेड मॉडल्स को खोजें और तुलना करें, फिर बिना कोड पुनर्लेखन के स्विच करें।. एआई मॉडल्स का अन्वेषण करें
त्वरित परीक्षण के लिए प्लेग्राउंड
मिनटों में प्रॉम्प्ट्स और UX फ्लो को मान्य करें—कोई इंफ्रा, कोई सेटअप नहीं।. ओपन प्लेग्राउंड
एकीकृत दस्तावेज़ और SDKs
ड्रॉप-इन, OpenAI-संगत। यहां से शुरू करें: API के साथ शुरुआत करना
प्रदाता पारिस्थितिकी तंत्र (चयन + मूल्य निर्धारण नियंत्रण)
मूल्य, क्षेत्र और प्रदर्शन के आधार पर प्रदाताओं को चुनें; अपनी एकीकरण स्थिर रखें।. प्रदाता अवलोकन · प्रदाता गाइड
रिलीज़ फीड
पारिस्थितिकी तंत्र में नए ड्रॉप्स और अपडेट्स को ट्रैक करें।. रिलीज़ देखें
बिना बाधा के प्रमाणीकरण
साइन इन करें या एक खाता बनाएं (मौजूदा उपयोगकर्ताओं का स्वतः-पहचान): साइन इन करें / साइन अप करें
FAQs — ShareAI उत्तर जो चमकते हैं
मेरे उपयोग-केस के लिए कौन सा मुफ्त ओपन सोर्स टेक्स्ट जनरेशन मॉडल सबसे अच्छा है?
SaaS के लिए डॉक्स/चैट: एक से शुरू करें 7–14B निर्देश-ट्यून मॉडल; यदि आप बड़े पृष्ठों को प्रोसेस करते हैं तो लंबे-कॉन्टेक्स्ट वेरिएंट का परीक्षण करें।. एज/ऑन-डिवाइस: चुनें 2–7बी कॉम्पैक्ट मॉडल; INT4 में क्वांटाइज़ करें।. बहुभाषी: उन परिवारों को चुनें जो गैर-अंग्रेजी ताकत के लिए जाने जाते हैं। मिनटों में प्रत्येक को आज़माएं प्लेग्राउंड, फिर एक प्रदाता को लॉक करें मॉडल ब्राउज़ करें.
क्या मैं इन मॉडलों को बिना GPU के अपने लैपटॉप पर चला सकता हूं?
हां, INT4/INT8 क्वांटाइज़ेशन और कॉम्पैक्ट मॉडल के साथ। प्रॉम्प्ट्स को छोटा रखें, टोकन स्ट्रीम करें, और कॉन्टेक्स्ट साइज को सीमित करें। यदि कुछ बहुत भारी है, तो उस अनुरोध को आपके समान ShareAI इंटीग्रेशन के माध्यम से होस्टेड मॉडल पर रूट करें।.
मैं मॉडलों की निष्पक्ष तुलना कैसे करूँ?
बनाएं एक छोटा गोल्डन सेट, पास/फेल मानदंड को परिभाषित करें, और टोकन/विलंबता मेट्रिक्स रिकॉर्ड करें। ShareAI प्लेग्राउंड आपको प्रॉम्प्ट्स को मानकीकृत करने और मॉडल्स को जल्दी से बदलने देता है; एपीआई समान कोड के साथ प्रदाताओं के बीच A/B करना आसान बनाता है।.
उत्पादन-ग्रेड अनुमान प्राप्त करने का सबसे सस्ता तरीका क्या है?
उपयोग करें कुशल 7–14B ट्रैफिक के 80% के लिए मॉडल्स, बार-बार उपयोग किए जाने वाले प्रॉम्प्ट्स को कैश करें, और केवल कठिन प्रॉम्प्ट्स के लिए बड़े या MoE मॉडल्स को आरक्षित करें। ShareAI के प्रदाता रूटिंग के साथ, आप एकीकरण बनाए रखते हैं और प्रति कार्यभार सबसे लागत-प्रभावी एंडपॉइंट चुनते हैं।.
क्या “ओपन वेट्स” “ओपन सोर्स” के समान है?
नहीं। ओपन वेट्स अक्सर उपयोग प्रतिबंधों. के साथ आते हैं। शिपिंग से पहले हमेशा मॉडल लाइसेंस की जांच करें। ShareAI मदद करता है मॉडल्स को लेबल करके और मॉडल पेज पर लाइसेंस जानकारी से लिंक करके ताकि आप आत्मविश्वास से चुन सकें।.
मैं मॉडल को जल्दी से फाइन-ट्यून या अनुकूलित कैसे करूं?
शुरू करें LoRA/QLoRA एडेप्टर्स छोटे डेटा पर और अपने स्वर्ण सेट के खिलाफ मान्य करें। ShareAI पर कई प्रदाता एडेप्टर-आधारित वर्कफ़्लो का समर्थन करते हैं ताकि आप पूर्ण फाइन-ट्यून प्रबंधित किए बिना तेजी से पुनरावृत्ति कर सकें।.
क्या मैं एकल API के पीछे खुले मॉडल को बंद मॉडलों के साथ मिला सकता हूँ?
हाँ। OpenAI-संगत इंटरफ़ेस के साथ अपने कोड को स्थिर रखें और ShareAI का उपयोग करके पर्दे के पीछे मॉडल/प्रदाता बदलें। यह आपको प्रति एंडपॉइंट लागत, विलंबता, और गुणवत्ता को संतुलित करने देता है।.
ShareAI अनुपालन और सुरक्षा में कैसे मदद करता है?
सिस्टम-प्रॉम्प्ट नीतियों, इनपुट फ़िल्टर (PII/रेड-फ्लैग्स) का उपयोग करें, और जोखिमपूर्ण प्रॉम्प्ट को सख्त मॉडलों की ओर रूट करें। ShareAI का डॉक्स अनुपालन समीक्षाओं के लिए लॉग्स, मेट्रिक्स, और फॉलबैक को ऑडिटेबल रखने के लिए सर्वोत्तम प्रथाओं और पैटर्न को कवर करता है। और पढ़ें प्रलेखन.
निष्कर्ष
मॉडल सर्वोत्तम मुफ्त टेक्स्ट जनरेशन मॉडल आपको तेज़ पुनरावृत्ति और मजबूत आधारभूत प्रदान करते हैं बिना आपको भारी-भरकम डिप्लॉयमेंट में फंसाए। कॉम्पैक्ट शुरू करें, मापें, और मॉडल (या प्रदाता) को केवल तभी स्केल करें जब आपके मेट्रिक्स इसकी मांग करें। शेयरएआई, आप कई खुले मॉडल आज़मा सकते हैं, प्रदाताओं के बीच विलंबता और लागत की तुलना कर सकते हैं, और एकल, स्थिर API के साथ शिप कर सकते हैं।.
- अन्वेषण करें मॉडल मार्केटप्लेस: मॉडल ब्राउज़ करें
- प्रॉम्प्ट्स को आज़माएं प्लेग्राउंड: ओपन प्लेग्राउंड
- अपना API कुंजी बनाएं और बनाएं: API कुंजी बनाएं