ओलामा चिटशीट
कुछ समय पहले इस Ollama कमांड लिस्ट को संकलित किया था...
यह Ollama कमांड्स की सूची और उदाहरण हैं (Ollama कमांड्स चीतशीट) जो मैंने कुछ समय पहले तैयार की थी। आशा है कि यह आपके लिए उपयोगी होगा भी।
यह Ollama चीतशीट CLI कमांड्स, मॉडल प्रबंधन, और कस्टमाइजेशन पर केंद्रित है
इंस्टॉलेशन
- विकल्प 1: वेबसाइट से डाउनलोड करें
- अपने ऑपरेटिंग सिस्टम (मैक, लिनक्स, या विंडोज) के लिए इंस्टॉलर डाउनलोड करने के लिए ollama.com पर जाएं।
- विकल्प 2: कमांड लाइन के माध्यम से इंस्टॉल करें
- मैक और लिनक्स उपयोगकर्ताओं के लिए, इस कमांड का उपयोग करें:
curl https://ollama.ai/install.sh | sh
- स्क्रीन पर दिए गए निर्देशों का पालन करें और अगर पूछे तो अपना पासवर्ड दर्ज करें।
- मैक और लिनक्स उपयोगकर्ताओं के लिए, इस कमांड का उपयोग करें:
सिस्टम आवश्यकताएं
- ऑपरेटिंग सिस्टम: मैक या लिनक्स (विंडोज संस्करण विकास में है)
- मेमोरी (RAM): 8GB न्यूनतम, 16GB या अधिक अनुशंसित
- स्टोरेज: कम से कम 10GB फ्री स्पेस (मॉडल फाइलें बहुत बड़ी हो सकती हैं, और अधिक जानकारी के लिए Ollama मॉडल्स को अलग ड्राइव पर स्थानांतरित करें)
- प्रोसेसर: एक अपेक्षाकृत आधुनिक CPU (पिछले 5 वर्षों का)
बुनियादी Ollama CLI कमांड्स
कमांड | विवरण |
---|---|
ollama serve |
अपने स्थानीय सिस्टम पर Ollama शुरू करता है। |
ollama create <new_model> |
एक मौजूदा मॉडल से एक नया मॉडल कस्टमाइजेशन या ट्रेनिंग के लिए बनाता है। |
ollama show <model> |
किसी विशेष मॉडल के बारे में विवरण दिखाता है, जैसे कि इसका कॉन्फ़िगरेशन और रिलीज़ तिथि। |
ollama run <model> |
निर्दिष्ट मॉडल चलाता है, जिससे इंटरैक्शन के लिए तैयार हो जाता है। |
ollama pull <model> |
निर्दिष्ट मॉडल को अपने सिस्टम पर डाउनलोड करता है। |
ollama list |
सभी डाउनलोड किए गए मॉडल की सूची देता है। ollama ls के समान है |
ollama ps |
वर्तमान में चल रहे मॉडल दिखाता है। |
ollama stop <model> |
निर्दिष्ट चल रहे मॉडल को रोकता है। |
ollama rm <model> |
निर्दिष्ट मॉडल को अपने सिस्टम से हटा देता है। |
ollama help |
किसी भी कमांड के बारे में मदद प्रदान करता है। |
मॉडल प्रबंधन
-
एक मॉडल डाउनलोड करें:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
यह कमांड निर्दिष्ट मॉडल (जैसे, Gemma 2B, या mistral-nemo:12b-instruct-2407-q6_K) को आपके सिस्टम पर डाउनलोड करता है। मॉडल फाइलें काफी बड़ी हो सकती हैं, इसलिए हार्ड ड्राइव या SSD पर मॉडल द्वारा उपयोग किए गए स्पेस पर नज़र रखें। आप सभी Ollama मॉडल्स को अपने होम डायरेक्टरी से एक बड़े और बेहतर ड्राइव पर स्थानांतरित करना चाह सकते हैं
-
एक मॉडल चलाएं:
ollama run qwen2.5:32b-instruct-q3_K_S
यह कमांड निर्दिष्ट मॉडल शुरू करता है और इंटरैक्शन के लिए एक इंटरैक्टिव REPL खोलता है।
-
मॉडल सूची:
ollama list
यह समान है:
ollama ls
यह कमांड उन सभी मॉडल्स की सूची देता है जिन्हें आपके सिस्टम पर डाउनलोड किया गया है, जैसे
$ ollama ls NAME ID SIZE MODIFIED deepseek-r1:8b 6995872bfe4c 5.2 GB 2 weeks ago gemma3:12b-it-qat 5d4fa005e7bb 8.9 GB 2 weeks ago LoTUs5494/mistral-small-3.1:24b-instruct-2503-iq4_NL 4e994e0f85a0 13 GB 3 weeks ago dengcao/Qwen3-Embedding-8B:Q4_K_M d3ca2355027f 4.7 GB 4 weeks ago dengcao/Qwen3-Embedding-4B:Q5_K_M 7e8c9ad6885b 2.9 GB 4 weeks ago qwen3:8b 500a1f067a9f 5.2 GB 5 weeks ago qwen3:14b bdbd181c33f2 9.3 GB 5 weeks ago qwen3:30b-a3b 0b28110b7a33 18 GB 5 weeks ago devstral:24b c4b2fa0c33d7 14 GB 5 weeks ago
-
एक मॉडल रोकें:
ollama stop llama3.1:8b-instruct-q8_0
यह कमांड निर्दिष्ट चल रहे मॉडल को रोकता है।
मॉडल्स को कस्टमाइज़ करें
-
सिस्टम प्रॉम्प्ट सेट करें: Ollama REPL के अंदर, आप एक सिस्टम प्रॉम्प्ट सेट कर सकते हैं ताकि मॉडल के व्यवहार को कस्टमाइज़ किया जा सके:
>>> /set system सभी पूछे गए सवालों के लिए सरल अंग्रेजी में उत्तर दें, तकनीकी शब्दावली से बचें जितना संभव हो >>> /save ipe >>> /bye
फिर, कस्टमाइज़्ड मॉडल चलाएं:
ollama run ipe
यह एक सिस्टम प्रॉम्प्ट सेट करता है और भविष्य के उपयोग के लिए मॉडल को सेव करता है।
-
कस्टम मॉडल फाइल बनाएं: एक टेक्स्ट फाइल (जैसे,
custom_model.txt
) इस संरचना के साथ बनाएं:FROM llama3.1 SYSTEM [अपने कस्टम निर्देश यहां]
फिर, चलाएं:
ollama create mymodel -f custom_model.txt ollama run mymodel
यह फाइल में दिए गए निर्देशों के आधार पर एक कस्टमाइज़्ड मॉडल बनाता है।
Ollama को फाइलों के साथ उपयोग करना
-
एक फाइल से टेक्स्ट सारांश बनाएं:
ollama run llama3.2 "इस फाइल के सामग्री का 50 शब्दों में सारांश दें।" < input.txt
यह कमांड निर्दिष्ट मॉडल का उपयोग करके
input.txt
के सामग्री का सारांश बनाता है। -
मॉडल प्रतिक्रियाओं को एक फाइल में लॉग करें:
ollama run llama3.2 "नवीकरणीय ऊर्जा के बारे में मुझे बताएं।" > output.txt
यह कमांड मॉडल के प्रतिक्रिया को
output.txt
में सेव करता है।
सामान्य उपयोग के मामले
-
टेक्स्ट जनरेशन:
- एक बड़े टेक्स्ट फाइल का सारांश बनाना:
ollama run llama3.2 "इस टेक्स्ट का सारांश करें:" < long-document.txt
- सामग्री जनरेशन:
ollama run llama3.2 "AI का उपयोग स्वास्थ्य सेवा में करने के लाभों पर एक छोटा लेख लिखें।" > article.txt
- विशिष्ट सवालों का जवाब देना:
ollama run llama3.2 "AI में सबसे हाल के रुझान क्या हैं, और वे स्वास्थ्य सेवा को कैसे प्रभावित करेंगे?"
- एक बड़े टेक्स्ट फाइल का सारांश बनाना:
-
डेटा प्रोसेसिंग और विश्लेषण:
- टेक्स्ट को सकारात्मक, नकारात्मक, या न्यूट्रल सेंटिमेंट में वर्गीकृत करना:
ollama run llama3.2 "इस ग्राहक समीक्षा का सेंटिमेंट विश्लेषण करें: 'उत्पाद अद्भुत है, लेकिन डिलीवरी धीमी थी।'"
- टेक्स्ट को पूर्वनिर्धारित श्रेणियों में वर्गीकृत करना: पूर्वनिर्धारित मानदंडों के आधार पर टेक्स्ट को वर्गीकृत या वर्गीकृत करने के लिए समान कमांड का उपयोग करें।
- टेक्स्ट को सकारात्मक, नकारात्मक, या न्यूट्रल सेंटिमेंट में वर्गीकृत करना:
Python के साथ Ollama का उपयोग करना
- Ollama Python लाइब्रेरी इंस्टॉल करें:
pip install ollama
- Python का उपयोग करके टेक्स्ट जनरेशन करें:
यह कोड स्निपेट निर्दिष्ट मॉडल और प्रॉम्प्ट का उपयोग करके टेक्स्ट जनरेशन करता है।
import ollama response = ollama.generate(model='gemma:2b', prompt='क्वबिट क्या है?') print(response['response'])
उपयोगी लिंक्स
- AI कोडिंग असिस्टेंट्स तुलना
- Ollama मॉडल्स को अलग ड्राइव या फोल्डर में स्थानांतरित करें
- Ollama कैसे समानांतर अनुरोधों को संभालता है
- Ollama Intel CPU प्रदर्शन और कुशल कोर का उपयोग कैसे करता है
- Ollama पर Deepseek-r1 का परीक्षण
- Bash चीतशीट
- Ollama पर Qwen3 एम्बेडिंग और रीरैंकर मॉडल्स: स्टेट-ऑफ-द-आर्ट प्रदर्शन