ओलामा चीटशीट

कुछ भविष्य के उपयोग के लिए इसे संकलित कर दिया...

Page content

यहाँ सबसे उपयोगी Ollama कमांडों की सूची और उदाहरण हैं (Ollama कमांड्स चीटशीट)
मैंने कुछ समय पहले इन्हें एकत्र किया था।
आशा करता हूँ कि यह आपके लिए उपयोगी होगा

ollama cheatsheet

यह Ollama चीटशीट CLI कमांड्स, मॉडल प्रबंधन और अनुकूलन पर केंद्रित है।

इंस्टॉलेशन

  • विकल्प 1: वेबसाइट से डाउनलोड करें
    • ollama.com जाएं और अपने ऑपरेटिंग सिस्टम (मैक, लिनक्स या विंडोज़) के लिए इंस्टॉलर डाउनलोड करें।
  • विकल्प 2: कमांड लाइन के माध्यम से इंस्टॉल करें
    • मैक और लिनक्स उपयोगकर्ताओं के लिए, निम्न कमांड का उपयोग करें:
      curl https://ollama.ai/install.sh | sh
      
    • स्क्रीन पर दिखाए गए निर्देशों का पालन करें और यदि कोई प्रश्न हो तो अपना पासवर्ड दर्ज करें[3]।

सिस्टम आवश्यकताएँ

  • ऑपरेटिंग सिस्टम: मैक या लिनक्स (विंडोज़ वर्जन विकास में)
  • मेमोरी (RAM): 8 जीबी न्यूनतम, 16 जीबी या अधिक अनुशंसित
  • स्टोरेज: कम से कम ~10 जीबी मुक्त स्थान
  • प्रोसेसर: एक ताजा एक वर्ष पहले के लगभग आधुनिक सीपीयू[3]।

बेसिक Ollama CLI कमांड्स

कमांड विवरण
ollama serve अपने स्थानीय प्रणाली पर Ollama को चलाता है।
ollama create <new_model> एक नए मॉडल को एक अस्तित्व में वाले मॉडल से बनाता है अनुकूलन या प्रशिक्षण के लिए।
ollama show <model> एक विशिष्ट मॉडल के बारे में विवरण दिखाता है, जैसे कि इसका संरचना और जारी करने की तारीख।
ollama run <model> निर्दिष्ट मॉडल को चलाता है, जिससे इसका बातचीत के लिए तैयार हो जाता है।
ollama pull <model> निर्दिष्ट मॉडल को अपने प्रणाली में डाउनलोड करता है।
ollama list सभी डाउनलोड किए गए मॉडलों की सूची बनाता है।
ollama ps वर्तमान में चल रहे मॉडलों को दिखाता है।
ollama stop <model> निर्दिष्ट चल रहे मॉडल को रोकता है।
ollama rm <model> निर्दिष्ट मॉडल को अपने प्रणाली से हटा देता है।
ollama help किसी भी कमांड के बारे में सहायता प्रदान करता है।

मॉडल प्रबंधन

  • एक मॉडल डाउनलोड करें:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    यह कमांड निर्दिष्ट मॉडल (जैसे Gemma 2B) को आपके प्रणाली में डाउनलोड करता है।

  • एक मॉडल चलाएं:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    यह कमांड निर्दिष्ट मॉडल को चलाता है और बातचीत के लिए एक इंटरएक्टिव REPL खोलता है।

  • मॉडलों की सूची बनाएं:

    ollama list
    

    यह कमांड आपके प्रणाली में डाउनलोड किए गए सभी मॉडलों की सूची बनाता है।

  • एक मॉडल रोकें:

    ollama stop llama3.1:8b-instruct-q8_0
    

    यह कमांड निर्दिष्ट चल रहे मॉडल को रोकता है।

मॉडलों के अनुकूलन

  • सिस्टम प्रॉम्प्ट सेट करें:
    Ollama REPL के अंदर, आप मॉडल के व्यवहार के लिए एक सिस्टम प्रॉम्प्ट सेट कर सकते हैं:

    >>> /set system सभी प्रश्नों के उत्तर अंग्रेजी में दें, तकनीकी जार्ज के उपयोग के बिना जितना संभव हो
    >>> /save ipe
    >>> /bye
    

    फिर, अनुकूलित मॉडल को चलाएं:

    ollama run ipe
    

    यह एक सिस्टम प्रॉम्प्ट सेट करता है और मॉडल को भविष्य के उपयोग के लिए सहेजता है।

  • अपना अनुकूलित मॉडल फ़ाइल बनाएं:
    एक टेक्स्ट फ़ाइल (जैसे custom_model.txt) बनाएं जिसमें निम्न संरचना हो:

    FROM llama3.1
    SYSTEM [आपके अनुकूलित निर्देश यहाँ]
    

    फिर, निम्न चलाएं:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    यह फ़ाइल में दिए गए निर्देशों के आधार पर एक अनुकूलित मॉडल बनाता है[3]।

फ़ाइलों के साथ Ollama का उपयोग

  • एक फ़ाइल से टेक्स्ट का सारांश बनाएं:

    ollama run llama3.2 "Summarize the content of this file in 50 words." < input.txt
    

    यह कमांड input.txt के सामग्री को निर्दिष्ट मॉडल के उपयोग से सारांशित करता है।

  • मॉडल के प्रतिक्रियाओं को एक फ़ाइल में लॉग करें:

    ollama run llama3.2 "Tell me about renewable energy." > output.txt
    

    यह कमांड मॉडल के प्रतिक्रिया को output.txt में सहेजता है।

सामान्य उपयोग के मामले

  • टेक्स्ट उत्पादन:

    • एक बड़े टेक्स्ट फ़ाइल का सारांश बनाएं:
      ollama run llama3.2 "Summarize the following text:" < long-document.txt
      
    • सामग्री उत्पादन:
      ollama run llama3.2 "Write a short article on the benefits of using AI in healthcare." > article.txt
      
    • विशिष्ट प्रश्नों के उत्तर दें:
      ollama run llama3.2 "What are the latest trends in AI, and how will they affect healthcare?"
      

    .

  • डेटा प्रोसेसिंग और विश्लेषण:

    • टेक्स्ट को सकारात्मक, नकारात्मक या उदासीन भाव के रूप में वर्गीकृत करें:
      ollama run llama3.2 "Analyze the sentiment of this customer review: 'The product is fantastic, but delivery was slow.'"
      
    • पूर्वनिर्धारित श्रेणियों में टेक्स्ट के वर्गीकरण के लिए एक जैसे कमांड का उपयोग करें।

Python के साथ Ollama का उपयोग

  • Ollama Python लाइब्रेरी की इंस्टॉलेशन:
    pip install ollama
    
  • Python के उपयोग से टेक्स्ट उत्पादन:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='what is a qubit?')
    print(response['response'])
    
    यह कोड स्निपेट निर्दिष्ट मॉडल और प्रॉम्प्ट के उपयोग से टेक्स्ट उत्पादन करता है।

उपयोगी लिंक