AI

उन्नत आरएजी: लॉन्गआरएजी, सेल्फ-आरएजी और ग्राफआरएजी का वर्णन

उन्नत आरएजी: लॉन्गआरएजी, सेल्फ-आरएजी और ग्राफआरएजी का वर्णन

लॉन्गआरएजी, सेल्फ-आरएजी, ग्राफआरएजी - अगली पीढ़ी के तकनीकें

Retrieval-Augmented Generation (RAG) ने बहुत सरल वेक्टर समानता खोज से परे विकास किया है। LongRAG, Self-RAG, और GraphRAG इन क्षमताओं के अग्रणी उदाहरण हैं।

पाइथन में FLUX.1-dev GGUF Q8 चलाना

पाइथन में FLUX.1-dev GGUF Q8 चलाना

GGUF क्वांटाइजेशन के साथ FLUX.1-dev को तेज़ करें

FLUX.1-dev एक शक्तिशाली टेक्स्ट-टू-इमेज मॉडल है जो आश्चर्यजनक परिणाम उत्पन्न करता है, लेकिन इसकी 24GB+ मेमोरी आवश्यकता इसे कई सिस्टम पर चलाने में चुनौतीपूर्ण बनाती है। GGUF क्वांटाइजेशन के साथ FLUX.1-dev एक समाधान प्रदान करता है, जो मेमोरी उपयोग को लगभग 50% कम करता है जबकि उत्कृष्ट इमेज क्वालिटी बनाए रखता है।

डॉकर मॉडल रनर: कॉन्टेक्स्ट साइज़ कॉन्फ़िग गाइड

डॉकर मॉडल रनर: कॉन्टेक्स्ट साइज़ कॉन्फ़िग गाइड

डॉकर मॉडल रनर में कॉन्टेक्स्ट साइज़ को कॉन्फ़िगर करें, साथ ही कार्यारंभिक समाधानों का उपयोग करें

डॉकर मॉडल रनर में कॉन्टेक्स्ट साइज कॉन्फ़िगर करने का कॉन्फ़िगरेशन अधिक जटिल है जितना होना चाहिए।

फ्लक्स.1-कोण्टेक्स्ट-डेव: इमेज ऑगमेंटेशन AI मॉडल

फ्लक्स.1-कोण्टेक्स्ट-डेव: इमेज ऑगमेंटेशन AI मॉडल

इमेजों को टेक्स्ट निर्देशों के साथ बढ़ाने के लिए AI मॉडल

ब्लैक फॉरेस्ट लैब्स ने FLUX.1-Kontext-dev जारी किया है, एक उन्नत इमेज-टू-इमेज एआई मॉडल जो टेक्स्ट निर्देशों का उपयोग करके मौजूदा इमेजों को बढ़ाता है।

डॉकर मॉडल रनर में NVIDIA GPU समर्थन जोड़ना

डॉकर मॉडल रनर में NVIDIA GPU समर्थन जोड़ना

डॉकर मॉडल रनर के लिए एनवीडिया CUDA समर्थन के साथ GPU त्वरण सक्षम करें

डॉकर मॉडल रनर डॉकर का आधिकारिक टूल है जो स्थानीय रूप से AI मॉडल चलाने के लिए है, लेकिन डॉकर मॉडल रनर में NVidia GPU त्वरक सक्षम करना के लिए विशेष कॉन्फ़िगरेशन की आवश्यकता होती है।

एलएलएम लागत कम करें: टोकन अनुकूलन रणनीतियाँ

एलएलएम लागत कम करें: टोकन अनुकूलन रणनीतियाँ

बुद्धिमान टोकन अनुकूलन के साथ LLM लागत को 80% तक कम करें

टोकन अनुकूलन वह महत्वपूर्ण कौशल है जो लागत-प्रभावी एलएलएम अनुप्रयोगों को बजट-खर्च करने वाले प्रयोगों से अलग करता है।

स्व-होस्टिंग इम्मिच: निजी फोटो क्लाउड

स्व-होस्टिंग इम्मिच: निजी फोटो क्लाउड

आपके स्व-होस्टेड AI-सक्षम बैकअप पर फोटो

Immich एक क्रांतिकारी ओपन-सोर्स, सेल्फ-होस्टेड फोटो और वीडियो मैनेजमेंट सॉल्यूशन है जो आपको अपने यादों पर पूर्ण नियंत्रण प्रदान करता है। Google Photos के समान विशेषताओं के साथ - जिसमें AI-सक्षम चेहरा पहचान, स्मार्ट सर्च, और स्वचालित मोबाइल बैकअप शामिल हैं - जबकि आपका डेटा आपकी अपनी सर्वर पर प्राइवेट और सुरक्षित रहता है।

एनवीडिया डीजीएक्स स्पार्क बनाम मैक स्टूडियो बनाम आरटीएक्स-4080: ओल्लामा प्रदर्शन तुलना

एनवीडिया डीजीएक्स स्पार्क बनाम मैक स्टूडियो बनाम आरटीएक्स-4080: ओल्लामा प्रदर्शन तुलना

GPT-OSS 120b तीन AI प्लेटफॉर्म पर बेंचमार्क

मैंने कुछ दिलचस्प प्रदर्शन परीक्षणों का पता लगाया है GPT-OSS 120b का जो Ollama पर चल रहा है, तीन अलग-अलग प्लेटफॉर्मों पर: NVIDIA DGX Spark, Mac Studio, और RTX 4080। Ollama लाइब्रेरी का GPT-OSS 120b मॉडल 65GB का है, जिसका मतलब है कि यह RTX 4080 के 16GB VRAM में नहीं फिट होता है (या नए RTX 5080).

पाइथन में MCP सर्वर बनाना: वेबसर्च और स्क्रेप गाइड

पाइथन में MCP सर्वर बनाना: वेबसर्च और स्क्रेप गाइड

पाइथन उदाहरणों के साथ एआई सहायक के लिए MCP सर्वर बनाएं

मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) बाहरी डेटा स्रोतों और टूल्स के साथ AI सहायकों के इंटरैक्शन के तरीके को क्रांतिकारी बना रहा है। इस गाइड में, हम Python में MCP सर्वर बनाना के बारे में जानेंगे, जिसमें वेब सर्च और स्क्रैपिंग क्षमताओं पर फोकस किए गए उदाहरण शामिल हैं।

डॉकर मॉडल रनर चीटशीट: कमांड्स और उदाहरण

डॉकर मॉडल रनर चीटशीट: कमांड्स और उदाहरण

डॉकर मॉडल रनर कमांड्स के लिए त्वरित संदर्भ

डॉकर मॉडल रनर (डीएमआर) डॉकर का आधिकारिक समाधान है जो स्थानीय रूप से एआई मॉडल चलाने के लिए है, जो अप्रैल 2025 में पेश किया गया था। यह चीटशीट सभी आवश्यक कमांड्स, कॉन्फ़िगरेशन, और बेस्ट प्रैक्टिसेस के लिए एक तेज़ संदर्भ प्रदान करता है।

डॉकर मॉडल रनर बनाम ओल्लामा: किसे चुनना चाहिए?

डॉकर मॉडल रनर बनाम ओल्लामा: किसे चुनना चाहिए?

डॉकर मॉडल रनर और ओल्लामा को स्थानीय एलएलएम के लिए तुलना करें

स्थानीय रूप से बड़े भाषा मॉडल (LLMs) चलाना अब गोपनीयता, लागत नियंत्रण, और ऑफ़लाइन क्षमताओं के लिए increasingly popular हो गया है। अप्रैल 2025 में, जब Docker ने Docker Model Runner (DMR) पेश किया, तो परिदृश्य महत्वपूर्ण रूप से बदल गया, जो AI मॉडल डिप्लॉयमेंट के लिए इसका आधिकारिक समाधान है।

एलएलएम एएसआईसी का उदय: इन्फरेंस हार्डवेयर क्यों महत्वपूर्ण है

एलएलएम एएसआईसी का उदय: इन्फरेंस हार्डवेयर क्यों महत्वपूर्ण है

खास चिप्स AI इन्फरेंस को तेज़ और सस्ता बना रहे हैं

भविष्य की AI केवल अधिक बुद्धिमान मॉडल्स के बारे में नहीं है - यह अधिक बुद्धिमान सिलिकॉन के बारे में है। LLM इन्फरेंस के लिए विशेषीकृत हार्डवेयर एक क्रांति को चलाने में मदद कर रहा है जो बिटकॉइन माइनिंग के ASICs की ओर शिफ्ट के समान है।

DGX Spark vs. Mac Studio: NVIDIA के व्यक्तिगत AI सुपरकंप्यूटर की कीमत की तुलना

DGX Spark vs. Mac Studio: NVIDIA के व्यक्तिगत AI सुपरकंप्यूटर की कीमत की तुलना

उपलब्धता, छह देशों में वास्तविक रिटेल मूल्य, और मैक स्टूडियो के साथ तुलना।

NVIDIA DGX Spark वास्तविक है, बिक्री 15 अक्टूबर, 2025 से, और यह CUDA डेवलपर्स के लिए बनाया गया है जो स्थानीय LLM कार्य के लिए एक एकीकृत NVIDIA AI स्टैक की आवश्यकता रखते हैं। यूएस एमएसआरपी $3,999; UK/DE/JP रिटेल अधिक है VAT और चैनल के कारण। AUD/KRW सार्वजनिक स्टिकर मूल्य अभी तक व्यापक रूप से पोस्ट नहीं किए गए हैं

ओलामा के लिए गो क्लाइंट्स: SDK तुलना और क्वेन3/जीपीटी-ओएसएस उदाहरण

ओलामा के लिए गो क्लाइंट्स: SDK तुलना और क्वेन3/जीपीटी-ओएसएस उदाहरण

ओलामा के साथ गो की इंटीग्रेशन: SDK गाइड, उदाहरण और उत्पादन बेस्ट प्रैक्टिस।

यह गाइड उपलब्ध Go SDKs for Ollama के विस्तृत समीक्षा प्रदान करता है और उनके विशेषताओं के सेट की तुलना करता है।

तुलना: क्वेन3:30बी vs जीपीटी-ओएसएस:20बी

तुलना: क्वेन3:30बी vs जीपीटी-ओएसएस:20बी

इन दो मॉडलों की गति, पैरामीटर्स और प्रदर्शन का तुलनात्मक अध्ययन

यहाँ Qwen3:30b और GPT-OSS:20b के बीच तुलना है, जो निर्देश पालन और प्रदर्शन पैरामीटर्स, स्पेसिफिकेशन्स और गति पर केंद्रित है:

ओलामा जीपीटी-ओएसएस संरचित आउटपुट समस्याएँ

ओलामा जीपीटी-ओएसएस संरचित आउटपुट समस्याएँ

बहुत अच्छा नहीं।

Ollama के GPT-OSS मॉडल्स में संरचित आउटपुट को हैंडल करने में बार-बार समस्याएं आती हैं, विशेष रूप से जब उन्हें LangChain, OpenAI SDK, vllm जैसे फ्रेमवर्क्स के साथ उपयोग किया जाता है, और अन्य।