ओलामा चिटशीट

कुछ समय पहले इस Ollama कमांड लिस्ट को संकलित किया था...

Page content

यह Ollama कमांड्स की सूची और उदाहरण हैं (Ollama कमांड्स चीतशीट) जो मैंने कुछ समय पहले तैयार की थी। आशा है कि यह आपके लिए उपयोगी होगा भी।

ollama चीतशीट

यह Ollama चीतशीट CLI कमांड्स, मॉडल प्रबंधन, और कस्टमाइजेशन पर केंद्रित है

इंस्टॉलेशन

  • विकल्प 1: वेबसाइट से डाउनलोड करें
    • अपने ऑपरेटिंग सिस्टम (मैक, लिनक्स, या विंडोज) के लिए इंस्टॉलर डाउनलोड करने के लिए ollama.com पर जाएं।
  • विकल्प 2: कमांड लाइन के माध्यम से इंस्टॉल करें
    • मैक और लिनक्स उपयोगकर्ताओं के लिए, इस कमांड का उपयोग करें:
      curl https://ollama.ai/install.sh | sh
      
    • स्क्रीन पर दिए गए निर्देशों का पालन करें और अगर पूछे तो अपना पासवर्ड दर्ज करें।

सिस्टम आवश्यकताएं

  • ऑपरेटिंग सिस्टम: मैक या लिनक्स (विंडोज संस्करण विकास में है)
  • मेमोरी (RAM): 8GB न्यूनतम, 16GB या अधिक अनुशंसित
  • स्टोरेज: कम से कम 10GB फ्री स्पेस (मॉडल फाइलें बहुत बड़ी हो सकती हैं, और अधिक जानकारी के लिए Ollama मॉडल्स को अलग ड्राइव पर स्थानांतरित करें)
  • प्रोसेसर: एक अपेक्षाकृत आधुनिक CPU (पिछले 5 वर्षों का)

बुनियादी Ollama CLI कमांड्स

कमांड विवरण
ollama serve अपने स्थानीय सिस्टम पर Ollama शुरू करता है।
ollama create <new_model> एक मौजूदा मॉडल से एक नया मॉडल कस्टमाइजेशन या ट्रेनिंग के लिए बनाता है।
ollama show <model> किसी विशेष मॉडल के बारे में विवरण दिखाता है, जैसे कि इसका कॉन्फ़िगरेशन और रिलीज़ तिथि।
ollama run <model> निर्दिष्ट मॉडल चलाता है, जिससे इंटरैक्शन के लिए तैयार हो जाता है।
ollama pull <model> निर्दिष्ट मॉडल को अपने सिस्टम पर डाउनलोड करता है।
ollama list सभी डाउनलोड किए गए मॉडल की सूची देता है। ollama ls के समान है
ollama ps वर्तमान में चल रहे मॉडल दिखाता है।
ollama stop <model> निर्दिष्ट चल रहे मॉडल को रोकता है।
ollama rm <model> निर्दिष्ट मॉडल को अपने सिस्टम से हटा देता है।
ollama help किसी भी कमांड के बारे में मदद प्रदान करता है।

मॉडल प्रबंधन

  • एक मॉडल डाउनलोड करें:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    यह कमांड निर्दिष्ट मॉडल (जैसे, Gemma 2B, या mistral-nemo:12b-instruct-2407-q6_K) को आपके सिस्टम पर डाउनलोड करता है। मॉडल फाइलें काफी बड़ी हो सकती हैं, इसलिए हार्ड ड्राइव या SSD पर मॉडल द्वारा उपयोग किए गए स्पेस पर नज़र रखें। आप सभी Ollama मॉडल्स को अपने होम डायरेक्टरी से एक बड़े और बेहतर ड्राइव पर स्थानांतरित करना चाह सकते हैं

  • एक मॉडल चलाएं:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    यह कमांड निर्दिष्ट मॉडल शुरू करता है और इंटरैक्शन के लिए एक इंटरैक्टिव REPL खोलता है।

  • मॉडल सूची:

    ollama list
    

    यह समान है:

    ollama ls
    

    यह कमांड उन सभी मॉडल्स की सूची देता है जिन्हें आपके सिस्टम पर डाउनलोड किया गया है, जैसे

    $ ollama ls
    NAME                                                    ID              SIZE      MODIFIED
    deepseek-r1:8b                                          6995872bfe4c    5.2 GB    2 weeks ago
    gemma3:12b-it-qat                                       5d4fa005e7bb    8.9 GB    2 weeks ago
    LoTUs5494/mistral-small-3.1:24b-instruct-2503-iq4_NL    4e994e0f85a0    13 GB     3 weeks ago
    dengcao/Qwen3-Embedding-8B:Q4_K_M                       d3ca2355027f    4.7 GB    4 weeks ago
    dengcao/Qwen3-Embedding-4B:Q5_K_M                       7e8c9ad6885b    2.9 GB    4 weeks ago
    qwen3:8b                                                500a1f067a9f    5.2 GB    5 weeks ago
    qwen3:14b                                               bdbd181c33f2    9.3 GB    5 weeks ago
    qwen3:30b-a3b                                           0b28110b7a33    18 GB     5 weeks ago
    devstral:24b                                            c4b2fa0c33d7    14 GB     5 weeks ago
    
  • एक मॉडल रोकें:

    ollama stop llama3.1:8b-instruct-q8_0
    

    यह कमांड निर्दिष्ट चल रहे मॉडल को रोकता है।

मॉडल्स को कस्टमाइज़ करें

  • सिस्टम प्रॉम्प्ट सेट करें: Ollama REPL के अंदर, आप एक सिस्टम प्रॉम्प्ट सेट कर सकते हैं ताकि मॉडल के व्यवहार को कस्टमाइज़ किया जा सके:

    >>> /set system सभी पूछे गए सवालों के लिए सरल अंग्रेजी में उत्तर दें, तकनीकी शब्दावली से बचें जितना संभव हो
    >>> /save ipe
    >>> /bye
    

    फिर, कस्टमाइज़्ड मॉडल चलाएं:

    ollama run ipe
    

    यह एक सिस्टम प्रॉम्प्ट सेट करता है और भविष्य के उपयोग के लिए मॉडल को सेव करता है।

  • कस्टम मॉडल फाइल बनाएं: एक टेक्स्ट फाइल (जैसे, custom_model.txt) इस संरचना के साथ बनाएं:

    FROM llama3.1
    SYSTEM [अपने कस्टम निर्देश यहां]
    

    फिर, चलाएं:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    यह फाइल में दिए गए निर्देशों के आधार पर एक कस्टमाइज़्ड मॉडल बनाता है।

Ollama को फाइलों के साथ उपयोग करना

  • एक फाइल से टेक्स्ट सारांश बनाएं:

    ollama run llama3.2 "इस फाइल के सामग्री का 50 शब्दों में सारांश दें।" < input.txt
    

    यह कमांड निर्दिष्ट मॉडल का उपयोग करके input.txt के सामग्री का सारांश बनाता है।

  • मॉडल प्रतिक्रियाओं को एक फाइल में लॉग करें:

    ollama run llama3.2 "नवीकरणीय ऊर्जा के बारे में मुझे बताएं।" > output.txt
    

    यह कमांड मॉडल के प्रतिक्रिया को output.txt में सेव करता है।

सामान्य उपयोग के मामले

  • टेक्स्ट जनरेशन:

    • एक बड़े टेक्स्ट फाइल का सारांश बनाना:
      ollama run llama3.2 "इस टेक्स्ट का सारांश करें:" < long-document.txt
      
    • सामग्री जनरेशन:
      ollama run llama3.2 "AI का उपयोग स्वास्थ्य सेवा में करने के लाभों पर एक छोटा लेख लिखें।" > article.txt
      
    • विशिष्ट सवालों का जवाब देना:
      ollama run llama3.2 "AI में सबसे हाल के रुझान क्या हैं, और वे स्वास्थ्य सेवा को कैसे प्रभावित करेंगे?"
      
  • डेटा प्रोसेसिंग और विश्लेषण:

    • टेक्स्ट को सकारात्मक, नकारात्मक, या न्यूट्रल सेंटिमेंट में वर्गीकृत करना:
      ollama run llama3.2 "इस ग्राहक समीक्षा का सेंटिमेंट विश्लेषण करें: 'उत्पाद अद्भुत है, लेकिन डिलीवरी धीमी थी।'"
      
    • टेक्स्ट को पूर्वनिर्धारित श्रेणियों में वर्गीकृत करना: पूर्वनिर्धारित मानदंडों के आधार पर टेक्स्ट को वर्गीकृत या वर्गीकृत करने के लिए समान कमांड का उपयोग करें।

Python के साथ Ollama का उपयोग करना

  • Ollama Python लाइब्रेरी इंस्टॉल करें:
    pip install ollama
    
  • Python का उपयोग करके टेक्स्ट जनरेशन करें:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='क्वबिट क्या है?')
    print(response['response'])
    
    यह कोड स्निपेट निर्दिष्ट मॉडल और प्रॉम्प्ट का उपयोग करके टेक्स्ट जनरेशन करता है।

उपयोगी लिंक्स