AI निर्माण सहायकों की तुलना
कर्सर AI विरुद्ध GitHub कॉपिलाईट विरुद्ध Kline AI विरुद्ध...
यहाँ कुछ AI सहायक निर्माण उपकरणों और AI Coding Assistants तथा उनके अच्छे पक्षों की सूची है।
कर्सर AI विरुद्ध GitHub कॉपिलाईट विरुद्ध Kline AI विरुद्ध...
यहाँ कुछ AI सहायक निर्माण उपकरणों और AI Coding Assistants तथा उनके अच्छे पक्षों की सूची है।
ओलामा इंटेल सीपीयू पर दक्षता वाले कोर्स बनाम प्रदर्शन कोर्स
मेरे पास एक सिद्धांत है जिसे परीक्षण करना है - अगर इंटेल के CPU पर सभी कोर का उपयोग करने से LLMs की गति बढ़ेगी? (परीक्षण: ओलामा कैसे इंटेल CPU के प्रदर्शन और कुशल कोर का उपयोग करता है)
यह मुझे चिंता कर रहा है कि नए gemma3 27 बिट मॉडल (gemma3:27b, 17GB ओलामा पर) मेरे GPU के 16GB VRAM में फिट नहीं हो रहा है और इसके कुछ हिस्सा CPU पर चल रहा है।
ओलामा को समानांतर अनुरोधों के निष्पादन के लिए स्थापित करें।
जब Ollama सर्वर एक ही समय में दो अनुरोध प्राप्त करता है, तो इसका व्यवहार इसके विन्यास और उपलब्ध प्रणाली संसाधनों पर निर्भर करता है।
दो गहन-खोज र1 मॉडल्स को दो बेस मॉडल्स से तुलना करना
DeepSeek के पहले पीढ़ी के रीज़निंग मॉडल्स का परिचय, जो OpenAI-o1 के समान प्रदर्शन करते हैं, जिसमें छह घने मॉडल्स शामिल हैं जो DeepSeek-R1 पर आधारित हैं, जो Llama और Qwen से डिस्टिल किए गए हैं।
कुछ समय पहले इस Ollama कमांड लिस्ट को कॉम्पाइल किया...
यह ओल्लामा कमांड्स की सूची और उदाहरण है (Ollama commands cheatsheet) जिसे मैंने कुछ समय पहले तैयार किया था। आशा है कि यह आपके लिए भी उपयोगी होगा।
एलएलएम परीक्षणों का अगला चरण
कुछ समय पहले जारी किया गया था। चलिए अपडेट करते हैं और
मिस्ट्रल स्मॉल के प्रदर्शन की तुलना करके टेस्ट करें।
एक पायथन कोड जो RAG के पुनर्रैंकिंग को दर्शाता है
दो स्व-होस्ट किए गए AI खोज इंजन की तुलना
अद्भुत खाद्य पदार्थ आपके आंखों के लिए भी आनंद है।
लेकिन इस पोस्ट में हम दो AI आधारित खोज प्रणालियों, Farfalle और Perplexica की तुलना करेंगे।
क्या आपलोग लॉकल में Copilot-स्टाइल सर्विस चलाना चाहते हैं? बहुत आसान!
यह बहुत दिलचस्प है! ऐसे कोपाइलट (copilot) या पर्फ़्लेक्सिटी.एआई (perplexity.ai) जैसे सेवाओं को नामकरण देते हुए, और दुनिया को बताते हुए आप क्या चाहते हैं, आप अब इस प्रकार की सेवाओं को खुद के पीसी (PC) या लैपटॉप (laptop) पर आज़माई कर सकते हैं!
कुछ कम विकल्प हैं लेकिन फिर भी....
जब मैंने LLMs के साथ प्रयोग शुरू किया तो उनके UIs गतिशील विकास में थे और अब कुछ बहुत अच्छे हैं।
तार्किक भ्रम पता करना पर परीक्षण
हाल ही में हमने कई नए LLMs के रिलीज को देखा है।
उत्साहजनक समय है।
चलिए टेस्ट करें और देखें कि वे तार्किक गलतियों के पता लगाने में कैसे प्रदर्शन करते हैं।
कुछ प्रयोग की आवश्यकता है लेकिन
अभी भी कुछ सामान्य दृष्टिकोण हैं जिनके द्वारा अच्छे प्रॉम्प्ट लिखे जा सकते हैं ताकि LLM को आपके द्वारा चाहे वाले कार्य को समझने में भ्रमित न हो।
8 llama3 (Meta+) and 5 phi3 (Microsoft) LLM versions
Please see the English page version.
ओलामा एलईएम मॉडल फ़ाइलें काफ़ी स्पेस लेती हैं
इंस्टॉल करने के बाद ओलामा को तुरंत नए स्थान पर संगठित करना बेहतर होगा, ताकि नए मॉडल खींचे जाने के बाद वे पुराने स्थान पर डाउनलोड न हों।