LLM

क्लाउड एलएलएम प्रदाता

क्लाउड एलएलएम प्रदाता

एलएलएम प्रदाताओं की संक्षिप्त सूची

एलएलएम का उपयोग करना बहुत महंगा नहीं है, नई शानदार जीपीयू खरीदने की आवश्यकता नहीं हो सकती। यहाँ क्लाउड में एलएलएम प्रदाताओं की सूची है जिनके पास वे एलएलएम होस्ट करते हैं।

परीक्षण: ओलामा कैसे इंटेल CPU के प्रदर्शन और कुशल कोर का उपयोग कर रहा है

परीक्षण: ओलामा कैसे इंटेल CPU के प्रदर्शन और कुशल कोर का उपयोग कर रहा है

ओलामा इंटेल सीपीयू पर दक्षता वाले कोर्स बनाम प्रदर्शन कोर्स

मेरे पास एक सिद्धांत है जिसे परीक्षण करना है - अगर इंटेल के CPU पर सभी कोर का उपयोग करने से LLMs की गति बढ़ेगी? (परीक्षण: ओलामा कैसे इंटेल CPU के प्रदर्शन और कुशल कोर का उपयोग करता है)
यह मुझे चिंता कर रहा है कि नए gemma3 27 बिट मॉडल (gemma3:27b, 17GB ओलामा पर) मेरे GPU के 16GB VRAM में फिट नहीं हो रहा है और इसके कुछ हिस्सा CPU पर चल रहा है।

एआई के लिए एनवीडिया जीपीयू के उपयुक्तता की तुलना

एआई के लिए एनवीडिया जीपीयू के उपयुक्तता की तुलना

एआई को बहुत अधिक शक्ति की आवश्यकता होती है...

आधुनिक दुनिया के अस्थिरता के बीच यहाँ मैं विभिन्न कार्ड के तकनीकी विशेषताओं की तुलना कर रहा हूँ, जो AI कार्यों के लिए उपयुक्त हैं
(डीप लर्निंग,
ऑब्जेक्ट डिटेक्शन
और LLMs
हालाँकि, वे सभी बहुत महंगे हैं।

ओलामा कैसे समानांतर अनुरोधों का संभालता है

ओलामा कैसे समानांतर अनुरोधों का संभालता है

ओलामा को समानांतर अनुरोधों के निष्पादन के लिए स्थापित करें।

जब Ollama सर्वर एक ही समय में दो अनुरोध प्राप्त करता है, तो इसका व्यवहार इसके विन्यास और उपलब्ध प्रणाली संसाधनों पर निर्भर करता है।

वाइब कोडिंग - अर्थ और विवरण

वाइब कोडिंग - अर्थ और विवरण

यह ट्रेंडी AI-सहायता प्राप्त कोडिंग क्या है?

वाइब कोडिंग एक आईई चालित कोडिंग प्रक्रिया है जहां डेवलपर्स अपनी आवश्यकता के बारे में प्राकृतिक भाषा में वर्णन करते हैं, जिससे आईई उपकरण ऑटोमैटिक रूप से कोड उत्पन्न करते हैं।

ओल्लामा पर डीपसीक-आर1 का परीक्षण

ओल्लामा पर डीपसीक-आर1 का परीक्षण

दो गहन-खोज र1 मॉडल्स को दो बेस मॉडल्स से तुलना करना

DeepSeek के पहले पीढ़ी के रीज़निंग मॉडल्स का परिचय, जो OpenAI-o1 के समान प्रदर्शन करते हैं, जिसमें छह घने मॉडल्स शामिल हैं जो DeepSeek-R1 पर आधारित हैं, जो Llama और Qwen से डिस्टिल किए गए हैं।

मिस्ट्रल स्मॉल, जेम्मा 2, क्वेन 2.5, मिस्ट्रल नेमो, एलएलएम3 और फ़ी - एलईएम परीक्षण

मिस्ट्रल स्मॉल, जेम्मा 2, क्वेन 2.5, मिस्ट्रल नेमो, एलएलएम3 और फ़ी - एलईएम परीक्षण

एलएलएम परीक्षणों का अगला चरण

कुछ समय पहले जारी किया गया था। चलिए अपडेट करते हैं और
मिस्ट्रल स्मॉल के प्रदर्शन की तुलना करके टेस्ट करें

फ्लक्स टेक्स्ट से इमेज AI मॉडल

फ्लक्स टेक्स्ट से इमेज AI मॉडल

अद्भुत नई AI मॉडल पाठ से चित्र उत्पन्न करने के लिए

हाल ही में ब्लैक फॉरेस्ट लैब्स ने एक सेट
टेक्स्ट-टू-इमेज आर्टिफिशियल इंटेलिजेंस मॉडल का प्रकाशन किया है।
इन मॉडलों के उत्पादन गुणवत्ता बहुत अधिक है।
इन्हें आज़माएं

फारफैले वर्सस पर्प्लेक्सिका

फारफैले वर्सस पर्प्लेक्सिका

दो स्व-होस्ट किए गए AI खोज इंजन की तुलना

अद्भुत खाद्य पदार्थ आपके आंखों के लिए भी आनंद है।
लेकिन इस पोस्ट में हम दो AI आधारित खोज प्रणालियों, Farfalle और Perplexica की तुलना करेंगे।

स्वयं-आयोजित Perplexica - साथ ही Ollama के साथ

स्वयं-आयोजित Perplexica - साथ ही Ollama के साथ

क्या आपलोग लॉकल में Copilot-स्टाइल सर्विस चलाना चाहते हैं? बहुत आसान!

यह बहुत दिलचस्प है! ऐसे कोपाइलट (copilot) या पर्फ़्लेक्सिटी.एआई (perplexity.ai) जैसे सेवाओं को नामकरण देते हुए, और दुनिया को बताते हुए आप क्या चाहते हैं, आप अब इस प्रकार की सेवाओं को खुद के पीसी (PC) या लैपटॉप (laptop) पर आज़माई कर सकते हैं!

एलईएम फ्रंटएंड्स

एलईएम फ्रंटएंड्स

कुछ कम विकल्प हैं लेकिन फिर भी....

जब मैंने LLMs के साथ प्रयोग शुरू किया तो उनके UIs गतिशील विकास में थे और अब कुछ बहुत अच्छे हैं।

गेम्मा2 विरुद्ध क्वेन2 विरुद्ध मिस्ट्रल नेमो विरुद्ध...

गेम्मा2 विरुद्ध क्वेन2 विरुद्ध मिस्ट्रल नेमो विरुद्ध...

तार्किक भ्रम पता करना पर परीक्षण

हाल ही में हमने कई नए LLMs के रिलीज को देखा है।
उत्साहजनक समय है।
चलिए टेस्ट करें और देखें कि वे तार्किक गलतियों के पता लगाने में कैसे प्रदर्शन करते हैं।