AI

फ्लक्स.1-कोण्टेक्स्ट-डेव: इमेज ऑगमेंटेशन AI मॉडल

फ्लक्स.1-कोण्टेक्स्ट-डेव: इमेज ऑगमेंटेशन AI मॉडल

इमेजों को टेक्स्ट निर्देशों के साथ बढ़ाने के लिए AI मॉडल

ब्लैक फॉरेस्ट लैब्स ने FLUX.1-Kontext-dev जारी किया है, एक उन्नत इमेज-टू-इमेज एआई मॉडल जो टेक्स्ट निर्देशों का उपयोग करके मौजूदा इमेजों को बढ़ाता है।

डॉकर मॉडल रनर में NVIDIA GPU समर्थन जोड़ना

डॉकर मॉडल रनर में NVIDIA GPU समर्थन जोड़ना

डॉकर मॉडल रनर के लिए एनवीडिया CUDA समर्थन के साथ GPU त्वरण सक्षम करें

डॉकर मॉडल रनर डॉकर का आधिकारिक टूल है जो स्थानीय रूप से AI मॉडल चलाने के लिए है, लेकिन डॉकर मॉडल रनर में NVidia GPU त्वरक सक्षम करना के लिए विशेष कॉन्फ़िगरेशन की आवश्यकता होती है।

एलएलएम लागत कम करें: टोकन अनुकूलन रणनीतियाँ

एलएलएम लागत कम करें: टोकन अनुकूलन रणनीतियाँ

बुद्धिमान टोकन अनुकूलन के साथ LLM लागत को 80% तक कम करें

टोकन अनुकूलन वह महत्वपूर्ण कौशल है जो लागत-प्रभावी एलएलएम अनुप्रयोगों को बजट-खर्च करने वाले प्रयोगों से अलग करता है।

एनवीडिया डीजीएक्स स्पार्क बनाम मैक स्टूडियो बनाम आरटीएक्स-4080: ओल्लामा प्रदर्शन तुलना

एनवीडिया डीजीएक्स स्पार्क बनाम मैक स्टूडियो बनाम आरटीएक्स-4080: ओल्लामा प्रदर्शन तुलना

GPT-OSS 120b तीन AI प्लेटफॉर्म पर बेंचमार्क

मैंने कुछ दिलचस्प प्रदर्शन परीक्षणों का पता लगाया है GPT-OSS 120b का जो Ollama पर चल रहा है, तीन अलग-अलग प्लेटफॉर्मों पर: NVIDIA DGX Spark, Mac Studio, और RTX 4080। Ollama लाइब्रेरी का GPT-OSS 120b मॉडल 65GB का है, जिसका मतलब है कि यह RTX 4080 के 16GB VRAM में नहीं फिट होता है (या नए RTX 5080).

पाइथन में MCP सर्वर बनाना: वेबसर्च और स्क्रेप गाइड

पाइथन में MCP सर्वर बनाना: वेबसर्च और स्क्रेप गाइड

पाइथन उदाहरणों के साथ एआई सहायक के लिए MCP सर्वर बनाएं

मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) बाहरी डेटा स्रोतों और टूल्स के साथ AI सहायकों के इंटरैक्शन के तरीके को क्रांतिकारी बना रहा है। इस गाइड में, हम Python में MCP सर्वर बनाना के बारे में जानेंगे, जिसमें वेब सर्च और स्क्रैपिंग क्षमताओं पर फोकस किए गए उदाहरण शामिल हैं।

डॉकर मॉडल रनर चीटशीट: कमांड्स और उदाहरण

डॉकर मॉडल रनर चीटशीट: कमांड्स और उदाहरण

डॉकर मॉडल रनर कमांड्स के लिए त्वरित संदर्भ

Docker Model Runner (DMR) Docker का आधिकारिक समाधान है जो स्थानीय रूप से AI मॉडल चलाने के लिए है, जो अप्रैल 2025 में पेश किया गया था। यह चिट्ठी सभी आवश्यक कमांड्स, कॉन्फ़िगरेशन, और सर्वोत्तम प्रथाओं के लिए एक तेज़ संदर्भ प्रदान करती है।

डॉकर मॉडल रनर बनाम ओल्लामा: किसे चुनना चाहिए?

डॉकर मॉडल रनर बनाम ओल्लामा: किसे चुनना चाहिए?

डॉकर मॉडल रनर और ओल्लामा को स्थानीय एलएलएम के लिए तुलना करें

स्थानीय रूप से बड़े भाषा मॉडल (LLMs) चलाना अब गोपनीयता, लागत नियंत्रण, और ऑफ़लाइन क्षमताओं के लिए increasingly popular हो गया है। अप्रैल 2025 में, जब Docker ने Docker Model Runner (DMR) पेश किया, तो परिदृश्य महत्वपूर्ण रूप से बदल गया, जो AI मॉडल डिप्लॉयमेंट के लिए इसका आधिकारिक समाधान है।

एलएलएम एएसआईसी का उदय: इन्फरेंस हार्डवेयर क्यों महत्वपूर्ण है

एलएलएम एएसआईसी का उदय: इन्फरेंस हार्डवेयर क्यों महत्वपूर्ण है

खास चिप्स AI इन्फरेंस को तेज़ और सस्ता बना रहे हैं

भविष्य की AI केवल अधिक बुद्धिमान मॉडल्स के बारे में नहीं है - यह अधिक बुद्धिमान सिलिकॉन के बारे में है। LLM इन्फरेंस के लिए विशेषीकृत हार्डवेयर एक क्रांति को चलाने में मदद कर रहा है जो बिटकॉइन माइनिंग के ASICs की ओर शिफ्ट के समान है।

DGX Spark vs. Mac Studio: NVIDIA के व्यक्तिगत AI सुपरकंप्यूटर की कीमत की तुलना

DGX Spark vs. Mac Studio: NVIDIA के व्यक्तिगत AI सुपरकंप्यूटर की कीमत की तुलना

उपलब्धता, छह देशों में वास्तविक रिटेल मूल्य, और मैक स्टूडियो के साथ तुलना।

NVIDIA DGX Spark वास्तविक है, बिक्री 15 अक्टूबर, 2025 से, और यह CUDA डेवलपर्स के लिए बनाया गया है जो स्थानीय LLM कार्य के लिए एक एकीकृत NVIDIA AI स्टैक की आवश्यकता रखते हैं। यूएस एमएसआरपी $3,999; UK/DE/JP रिटेल अधिक है VAT और चैनल के कारण। AUD/KRW सार्वजनिक स्टिकर मूल्य अभी तक व्यापक रूप से पोस्ट नहीं किए गए हैं

ओलामा के लिए गो क्लाइंट्स: SDK तुलना और क्वेन3/जीपीटी-ओएसएस उदाहरण

ओलामा के लिए गो क्लाइंट्स: SDK तुलना और क्वेन3/जीपीटी-ओएसएस उदाहरण

ओलामा के साथ गो की इंटीग्रेशन: SDK गाइड, उदाहरण और उत्पादन बेस्ट प्रैक्टिस।

यह गाइड उपलब्ध Go SDKs for Ollama के विस्तृत समीक्षा प्रदान करता है और उनके विशेषताओं के सेट की तुलना करता है।

तुलना: क्वेन3:30बी vs जीपीटी-ओएसएस:20बी

तुलना: क्वेन3:30बी vs जीपीटी-ओएसएस:20बी

इन दो मॉडलों की गति, पैरामीटर्स और प्रदर्शन का तुलनात्मक अध्ययन

यहाँ Qwen3:30b और GPT-OSS:20b के बीच तुलना है, जो निर्देश पालन और प्रदर्शन पैरामीटर्स, स्पेसिफिकेशन्स और गति पर केंद्रित है:

ओलामा जीपीटी-ओएसएस संरचित आउटपुट समस्याएँ

ओलामा जीपीटी-ओएसएस संरचित आउटपुट समस्याएँ

बहुत अच्छा नहीं।

Ollama के GPT-OSS मॉडल्स में संरचित आउटपुट को हैंडल करने में बार-बार समस्याएं आती हैं, विशेष रूप से जब उन्हें LangChain, OpenAI SDK, vllm जैसे फ्रेमवर्क्स के साथ उपयोग किया जाता है, और अन्य।

लोकप्रिय एलएलएम प्रदाताओं - ओपनएआई, जेमिनी, एंथ्रोपिक, मिस्ट्रल और एडब्ल्यूएस बेड्रॉक के बीच संरचित आउटपुट तुलना

लोकप्रिय एलएलएम प्रदाताओं - ओपनएआई, जेमिनी, एंथ्रोपिक, मिस्ट्रल और एडब्ल्यूएस बेड्रॉक के बीच संरचित आउटपुट तुलना

अलग तरह के एपीआई के लिए विशेष दृष्टिकोण की आवश्यकता होती है।

यहाँ एक साइड-बाय-साइड सपोर्ट तुलना है संरचित आउटपुट (विश्वसनीय JSON प्राप्त करना) लोकप्रिय LLM प्रदाताओं के बीच, साथ ही न्यूनतम Python उदाहरण

संरचित आउटपुट के साथ एलएलएम को सीमित करना: ओल्लामा, क्वेन3 & पाइथन या गो

संरचित आउटपुट के साथ एलएलएम को सीमित करना: ओल्लामा, क्वेन3 & पाइथन या गो

Ollama से संरचित आउटपुट प्राप्त करने के कुछ तरीके

बड़े भाषा मॉडल (LLMs) शक्तिशाली हैं, लेकिन उत्पादन में हम आमतौर पर मुक्त-रूप पेराग्राफ नहीं चाहते। बजाय इसके, हम प्रत्याशित डेटा चाहते हैं: विशेषताएं, तथ्य, या संरचित वस्तुएं जिन्हें आप एक ऐप में फीड कर सकते हैं। यह है LLM संरचित आउटपुट

मेमोरी आवंटन मॉडल अनुसूचना नया संस्करण में - व0.12.1

मेमोरी आवंटन मॉडल अनुसूचना नया संस्करण में - व0.12.1

अपना खुद का परीक्षण ओलामा मॉडल शेड्यूलिंग

मैं नए ओल्लामा संस्करण में मॉडल के लिए आवंटित VRAM की तुलना (Ollama VRAM allocation) पुराने संस्करण के साथ कर रहा हूँ। नया संस्करण खराब है।