
वाइब कोडिंग - अर्थ और विवरण
यह ट्रेंडी AI-सहायता प्राप्त कोडिंग क्या है?
वाइब कोडिंग एक आईई चालित कोडिंग प्रक्रिया है जहां डेवलपर्स अपनी आवश्यकता के बारे में प्राकृतिक भाषा में वर्णन करते हैं, जिससे आईई उपकरण ऑटोमैटिक रूप से कोड उत्पन्न करते हैं।
यह ट्रेंडी AI-सहायता प्राप्त कोडिंग क्या है?
वाइब कोडिंग एक आईई चालित कोडिंग प्रक्रिया है जहां डेवलपर्स अपनी आवश्यकता के बारे में प्राकृतिक भाषा में वर्णन करते हैं, जिससे आईई उपकरण ऑटोमैटिक रूप से कोड उत्पन्न करते हैं।
MM* उपकरणों के पूरा सेट EOL पर है...
मैंने MMDetection (mmengine, mdet, mmcv) काफी काम में उपयोग किया है,
अब लगता है कि यह खेल से बाहर हो गया है।
यह दुर्भाग्यपूर्ण है। मुझे इसके मॉडल ज़ू के बारे में पसंद था।
दो गहन-खोज र1 मॉडल्स को दो बेस मॉडल्स से तुलना करना
DeepSeek के पहले पीढ़ी के रीज़निंग मॉडल्स का परिचय, जो OpenAI-o1 के समान प्रदर्शन करते हैं, जिसमें छह घने मॉडल्स शामिल हैं जो DeepSeek-R1 पर आधारित हैं, जो Llama और Qwen से डिस्टिल किए गए हैं।
कुछ समय पहले इस Ollama कमांड लिस्ट को संकलित किया था...
यह Ollama कमांड्स की सूची और उदाहरण हैं (Ollama कमांड्स चीतशीट) जो मैंने कुछ समय पहले तैयार की थी। आशा है कि यह आपके लिए उपयोगी होगा भी।
एलएलएम परीक्षणों का अगला चरण
कुछ समय पहले जारी किया गया था। चलिए अपडेट करते हैं और
मिस्ट्रल स्मॉल के प्रदर्शन की तुलना करके टेस्ट करें।
अद्भुत नई AI मॉडल पाठ से चित्र उत्पन्न करने के लिए
हाल ही में ब्लैक फॉरेस्ट लैब्स ने एक सेट
टेक्स्ट-टू-इमेज आर्टिफिशियल इंटेलिजेंस मॉडल का प्रकाशन किया है।
इन मॉडलों के उत्पादन गुणवत्ता बहुत अधिक है।
इन्हें आज़माएं
दो स्व-होस्ट किए गए AI खोज इंजन की तुलना
अद्भुत खाद्य पदार्थ आपके आंखों के लिए भी आनंद है।
लेकिन इस पोस्ट में हम दो AI आधारित खोज प्रणालियों, Farfalle और Perplexica की तुलना करेंगे।
क्या आपलोग लॉकल में Copilot-स्टाइल सर्विस चलाना चाहते हैं? बहुत आसान!
यह बहुत दिलचस्प है! ऐसे कोपाइलट (copilot) या पर्फ़्लेक्सिटी.एआई (perplexity.ai) जैसे सेवाओं को नामकरण देते हुए, और दुनिया को बताते हुए आप क्या चाहते हैं, आप अब इस प्रकार की सेवाओं को खुद के पीसी (PC) या लैपटॉप (laptop) पर आज़माई कर सकते हैं!
कुछ कम विकल्प हैं लेकिन फिर भी....
जब मैंने LLMs के साथ प्रयोग शुरू किया तो उनके UIs गतिशील विकास में थे और अब कुछ बहुत अच्छे हैं।
तार्किक भ्रम पता करना पर परीक्षण
हाल ही में हमने कई नए LLMs के रिलीज को देखा है।
उत्साहजनक समय है।
चलिए टेस्ट करें और देखें कि वे तार्किक गलतियों के पता लगाने में कैसे प्रदर्शन करते हैं।
कुछ प्रयोग की आवश्यकता है लेकिन
अभी भी कुछ सामान्य दृष्टिकोण हैं जिनके द्वारा अच्छे प्रॉम्प्ट लिखे जा सकते हैं ताकि LLM को आपके द्वारा चाहे वाले कार्य को समझने में भ्रमित न हो।
लेबलिंग और ट्रेनिंग में कुछ चिपकाना आवश्यक है
जब मैं object detector AI का ट्रेन कर रहा था कुछ समय पहले - LabelImg एक बहुत सहायक टूल था, लेकिन Label Studio से COCO फॉर्मेट में एक्सपोर्ट MMDetection फ्रेमवर्क द्वारा स्वीकृत नहीं था।
8 llama3 (Meta+) and 5 phi3 (Microsoft) LLM versions
Please see the English page version.
ओलामा एलईएम मॉडल फ़ाइलें काफ़ी स्पेस लेती हैं
इंस्टॉल करने के बाद ओलामा को तुरंत नए स्थान पर संगठित करना बेहतर होगा, ताकि नए मॉडल खींचे जाने के बाद वे पुराने स्थान पर डाउनलोड न हों।
चलो एलईएम के ग्राफिक्स प्रोसेसर और सीपीयू पर गति का परीक्षण करते हैं।
कई LLMs के विभिन्न संस्करणों (llama3 (मेटा/फेसबुक), phi3 (माइक्रोसॉफ्ट), gemma (गूगल), mistral (ओपन स्रोत)) के पूर्वानुमान गति की तुलना: CPU और GPU पर।