ओलामा चीटशीट
कुछ भविष्य के उपयोग के लिए इसे संकलित कर दिया...
यहाँ सबसे उपयोगी Ollama कमांडों की सूची और उदाहरण हैं (Ollama कमांड्स चीटशीट)
मैंने कुछ समय पहले इन्हें एकत्र किया था।
आशा करता हूँ कि यह आपके लिए उपयोगी होगा।
यह Ollama चीटशीट CLI कमांड्स, मॉडल प्रबंधन और अनुकूलन पर केंद्रित है।
इंस्टॉलेशन
- विकल्प 1: वेबसाइट से डाउनलोड करें
- ollama.com जाएं और अपने ऑपरेटिंग सिस्टम (मैक, लिनक्स या विंडोज़) के लिए इंस्टॉलर डाउनलोड करें।
- विकल्प 2: कमांड लाइन के माध्यम से इंस्टॉल करें
- मैक और लिनक्स उपयोगकर्ताओं के लिए, निम्न कमांड का उपयोग करें:
curl https://ollama.ai/install.sh | sh
- स्क्रीन पर दिखाए गए निर्देशों का पालन करें और यदि कोई प्रश्न हो तो अपना पासवर्ड दर्ज करें[3]।
- मैक और लिनक्स उपयोगकर्ताओं के लिए, निम्न कमांड का उपयोग करें:
सिस्टम आवश्यकताएँ
- ऑपरेटिंग सिस्टम: मैक या लिनक्स (विंडोज़ वर्जन विकास में)
- मेमोरी (RAM): 8 जीबी न्यूनतम, 16 जीबी या अधिक अनुशंसित
- स्टोरेज: कम से कम ~10 जीबी मुक्त स्थान
- प्रोसेसर: एक ताजा एक वर्ष पहले के लगभग आधुनिक सीपीयू[3]।
बेसिक Ollama CLI कमांड्स
कमांड | विवरण |
---|---|
ollama serve |
अपने स्थानीय प्रणाली पर Ollama को चलाता है। |
ollama create <new_model> |
एक नए मॉडल को एक अस्तित्व में वाले मॉडल से बनाता है अनुकूलन या प्रशिक्षण के लिए। |
ollama show <model> |
एक विशिष्ट मॉडल के बारे में विवरण दिखाता है, जैसे कि इसका संरचना और जारी करने की तारीख। |
ollama run <model> |
निर्दिष्ट मॉडल को चलाता है, जिससे इसका बातचीत के लिए तैयार हो जाता है। |
ollama pull <model> |
निर्दिष्ट मॉडल को अपने प्रणाली में डाउनलोड करता है। |
ollama list |
सभी डाउनलोड किए गए मॉडलों की सूची बनाता है। |
ollama ps |
वर्तमान में चल रहे मॉडलों को दिखाता है। |
ollama stop <model> |
निर्दिष्ट चल रहे मॉडल को रोकता है। |
ollama rm <model> |
निर्दिष्ट मॉडल को अपने प्रणाली से हटा देता है। |
ollama help |
किसी भी कमांड के बारे में सहायता प्रदान करता है। |
मॉडल प्रबंधन
-
एक मॉडल डाउनलोड करें:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
यह कमांड निर्दिष्ट मॉडल (जैसे Gemma 2B) को आपके प्रणाली में डाउनलोड करता है।
-
एक मॉडल चलाएं:
ollama run qwen2.5:32b-instruct-q3_K_S
यह कमांड निर्दिष्ट मॉडल को चलाता है और बातचीत के लिए एक इंटरएक्टिव REPL खोलता है।
-
मॉडलों की सूची बनाएं:
ollama list
यह कमांड आपके प्रणाली में डाउनलोड किए गए सभी मॉडलों की सूची बनाता है।
-
एक मॉडल रोकें:
ollama stop llama3.1:8b-instruct-q8_0
यह कमांड निर्दिष्ट चल रहे मॉडल को रोकता है।
मॉडलों के अनुकूलन
-
सिस्टम प्रॉम्प्ट सेट करें:
Ollama REPL के अंदर, आप मॉडल के व्यवहार के लिए एक सिस्टम प्रॉम्प्ट सेट कर सकते हैं:>>> /set system सभी प्रश्नों के उत्तर अंग्रेजी में दें, तकनीकी जार्ज के उपयोग के बिना जितना संभव हो >>> /save ipe >>> /bye
फिर, अनुकूलित मॉडल को चलाएं:
ollama run ipe
यह एक सिस्टम प्रॉम्प्ट सेट करता है और मॉडल को भविष्य के उपयोग के लिए सहेजता है।
-
अपना अनुकूलित मॉडल फ़ाइल बनाएं:
एक टेक्स्ट फ़ाइल (जैसेcustom_model.txt
) बनाएं जिसमें निम्न संरचना हो:FROM llama3.1 SYSTEM [आपके अनुकूलित निर्देश यहाँ]
फिर, निम्न चलाएं:
ollama create mymodel -f custom_model.txt ollama run mymodel
यह फ़ाइल में दिए गए निर्देशों के आधार पर एक अनुकूलित मॉडल बनाता है[3]।
फ़ाइलों के साथ Ollama का उपयोग
-
एक फ़ाइल से टेक्स्ट का सारांश बनाएं:
ollama run llama3.2 "Summarize the content of this file in 50 words." < input.txt
यह कमांड
input.txt
के सामग्री को निर्दिष्ट मॉडल के उपयोग से सारांशित करता है। -
मॉडल के प्रतिक्रियाओं को एक फ़ाइल में लॉग करें:
ollama run llama3.2 "Tell me about renewable energy." > output.txt
यह कमांड मॉडल के प्रतिक्रिया को
output.txt
में सहेजता है।
सामान्य उपयोग के मामले
-
टेक्स्ट उत्पादन:
- एक बड़े टेक्स्ट फ़ाइल का सारांश बनाएं:
ollama run llama3.2 "Summarize the following text:" < long-document.txt
- सामग्री उत्पादन:
ollama run llama3.2 "Write a short article on the benefits of using AI in healthcare." > article.txt
- विशिष्ट प्रश्नों के उत्तर दें:
ollama run llama3.2 "What are the latest trends in AI, and how will they affect healthcare?"
.
- एक बड़े टेक्स्ट फ़ाइल का सारांश बनाएं:
-
डेटा प्रोसेसिंग और विश्लेषण:
- टेक्स्ट को सकारात्मक, नकारात्मक या उदासीन भाव के रूप में वर्गीकृत करें:
ollama run llama3.2 "Analyze the sentiment of this customer review: 'The product is fantastic, but delivery was slow.'"
- पूर्वनिर्धारित श्रेणियों में टेक्स्ट के वर्गीकरण के लिए एक जैसे कमांड का उपयोग करें।
- टेक्स्ट को सकारात्मक, नकारात्मक या उदासीन भाव के रूप में वर्गीकृत करें:
Python के साथ Ollama का उपयोग
- Ollama Python लाइब्रेरी की इंस्टॉलेशन:
pip install ollama
- Python के उपयोग से टेक्स्ट उत्पादन:
यह कोड स्निपेट निर्दिष्ट मॉडल और प्रॉम्प्ट के उपयोग से टेक्स्ट उत्पादन करता है।
import ollama response = ollama.generate(model='gemma:2b', prompt='what is a qubit?') print(response['response'])