دليل مساعد Ollama - الأوامر الأكثر فائدة

أعدت تجميع قائمة الأوامر هذه لـ Ollama منذ بضع وقت مضى...

Page content

هنا قائمة بأهم أوامر Ollama (قائمة أوامر Ollama)
جمعتها منذ فترة.

أتمنى أن تكون مفيدة لك أيضًا هنا.

ollama cheatsheet

هذا دليل أوامر Ollama يركز على الأوامر من خلال واجهة سطر الأوامر، وإدارة النماذج، والتكيف،
لكن لدينا أيضًا بعض مكالمات curl هنا أيضًا.

التثبيت

  • الخيار 1: تنزيل من الموقع
    • قم بزيارة ollama.com وقم بتنزيل المثيل المناسب لنظام التشغيل الخاص بك (Mac، Linux، أو Windows).
  • الخيار 2: التثبيت عبر سطر الأوامر
    • للمستخدمين الذين يستخدمون Mac وLinux، استخدم الأمر التالي:
curl https://ollama.ai/install.sh | sh
  • اتبع التعليمات التي تظهر على الشاشة، وادخل كلمة المرور إذا تم طلبها.

متطلبات النظام

  • نظام التشغيل: Mac أو Linux (النسخة الخاصة بـ Windows قيد التطوير)
  • الذاكرة (RAM): 8 جيجابايت على الأقل، 16 جيجابايت أو أكثر موصى بها
  • التخزين: مساحة حرة لا تقل عن ~10 جيجابايت (قد تكون ملفات النماذج كبيرة جدًا، راجع هنا المزيد نقل نماذج Ollama إلى محرك تخزين مختلف)
  • المعالج: معالج حديث نسبيًا (من السنوات الخمس الماضية).

أوامر Ollama الأساسية من خلال واجهة سطر الأوامر

الأوامر الوصف
ollama serve يبدأ تشغيل Ollama على نظامك المحلي.
ollama create <new_model> ينشئ نموذجًا جديدًا من نموذج موجود لإجراء التعديلات أو التدريب.
ollama show <model> يعرض تفاصيل حول نموذج معين، مثل إعداداته وتاريخ الإصدار.
ollama run <model> يبدأ تشغيل النموذج المحدد، مما يجعله جاهزًا للتفاعل.
ollama pull <model> يحمل النموذج المحدد إلى نظامك.
ollama list يعرض قائمة جميع النماذج التي تم تنزيلها. نفس الأمر مثل ollama ls
ollama ps يعرض النماذج التي تعمل حاليًا.
ollama stop <model> يتوقف عن تشغيل النموذج المحدد.
ollama rm <model> يحذف النموذج المحدد من نظامك.
ollama help يوفر مساعدة حول أي أمر.

إدارة النماذج

  • تنزيل نموذج:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    هذا الأمر يحمل النموذج المحدد (مثل Gemma 2B، أو mistral-nemo:12b-instruct-2407-q6_K) إلى نظامك. قد تكون ملفات النماذج كبيرة جدًا، لذا تأكد من مراقبة المساحة المستخدمة من قبل النماذج على القرص الصلب أو SSD. قد ترغب حتى في نقل جميع نماذج Ollama من دليلك المخصص إلى محرك تخزين أكبر وأفضل

  • تشغيل نموذج:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    هذا الأمر يبدأ تشغيل النموذج المحدد ويفتح REPL تفاعليًا للتفاعل.

  • عرض قائمة النماذج:

    ollama list
    

    نفس الأمر مثل:

    ollama ls
    

    هذا الأمر يعرض قائمة جميع النماذج التي تم تنزيلها إلى نظامك، مثل

    $ ollama ls
    NAME                                                    ID              SIZE      MODIFIED     
    deepseek-r1:8b                                          6995872bfe4c    5.2 GB    منذ أسبوعين     
    gemma3:12b-it-qat                                       5d4fa005e7bb    8.9 GB    منذ أسبوعين     
    LoTUs5494/mistral-small-3.1:24b-instruct-2503-iq4_NL    4e994e0f85a0    13 GB     منذ 3 أسابيع     
    dengcao/Qwen3-Embedding-8B:Q4_K_M                       d3ca2355027f    4.7 GB    منذ 4 أسابيع     
    dengcao/Qwen3-Embedding-4B:Q5_K_M                       7e8c9ad6885b    2.9 GB    منذ 4 أسابيع     
    qwen3:8b                                                500a1f067a9f    5.2 GB    منذ 5 أسابيع     
    qwen3:14b                                               bdbd181c33f2    9.3 GB    منذ 5 أسابيع     
    qwen3:30b-a3b                                           0b28110b7a33    18 GB     منذ 5 أسابيع     
    devstral:24b                                            c4b2fa0c33d7    14 GB     منذ 5 أسابيع  
    
  • إيقاف تشغيل نموذج:

    ollama stop llama3.1:8b-instruct-q8_0
    

    هذا الأمر يوقف تشغيل النموذج المحدد.

إصدار النموذج من VRAM

عندما يتم تحميل نموذج إلى VRAM (ذاكرة GPU)، يبقى هناك حتى بعد انتهاء استخدامك له. لتفريغ النموذج من VRAM وتحرير مساحة ذاكرة GPU بشكل صريح، يمكنك إرسال طلب إلى واجهة برمجة التطبيقات الخاصة بـ Ollama مع keep_alive: 0.

  • إطلاق النموذج من VRAM باستخدام curl:
curl http://localhost:11434/api/generate -d '{"model": "MODELNAME", "keep_alive": 0}'

استبدل MODELNAME باسم النموذج الفعلي، على سبيل المثال:

curl http://localhost:11434/api/generate -d '{"model": "qwen3:14b", "keep_alive": 0}'
  • إطلاق النموذج من VRAM باستخدام Python:
import requests

response = requests.post(
    'http://localhost:11434/api/generate',
    json={'model': 'qwen3:14b', 'keep_alive': 0}
)

هذا مفيد بشكل خاص عندما:

  • تحتاج إلى تحرير مساحة ذاكرة GPU لتطبيقات أخرى
  • تستخدم عدة نماذج وتريد إدارة استخدام VRAM
  • انتهيت من استخدام نموذج كبير وتريد تحرير الموارد فورًا

ملاحظة: يتحكم معلمة keep_alive في مدة (بالثوانى) التي يبقى فيها النموذج مُحمّلًا في الذاكرة بعد آخر طلب. وضعها على 0 يُفرغ النموذج من VRAM فورًا.

تعديل النماذج

  • تحديد محفز النظام: داخل REPL الخاص بـ Ollama، يمكنك تحديد محفز النظام لتخصيص سلوك النموذج:

    >>> /set system للإجابة على جميع الأسئلة باللغة الإنجليزية بقدر الإمكان، وتجنب المصطلحات الفنية
    >>> /save ipe
    >>> /bye
    

    ثم، قم بتشغيل النموذج المخصص:

    ollama run ipe
    

    هذا يحدد محفز النظام ويحفظ النموذج للاستخدام المستقبلي.

  • إنشاء ملف نموذج مخصص: أنشئ ملف نصي (مثلاً، custom_model.txt) ببنية التالية:

    FROM llama3.1
    SYSTEM [التعليمات المخصصة هنا]
    

    ثم، قم بتشغيل:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    هذا ينشئ نموذجًا مخصصًا بناءً على التعليمات الموجودة في الملف.

استخدام Ollama مع الملفات

  • ملخص النص من ملف:

    ollama run llama3.2 "ملخص محتوى هذا الملف في 50 كلمة." < input.txt
    

    هذا الأمر يلخص محتوى input.txt باستخدام النموذج المحدد.

  • تسجيل استجابات النموذج في ملف:

    ollama run llama3.2 "أخبرني عن الطاقة المتجددة." > output.txt
    

    هذا الأمر يحفظ استجابة النموذج في output.txt.

استخدامات شائعة

  • إنشاء النص:

    • ملخص ملف نصي كبير:
      ollama run llama3.2 "ملخص النص التالي:" < long-document.txt
      
    • إنشاء محتوى:
      ollama run llama3.2 "اكتب مقالًا قصيرًا عن فوائد استخدام الذكاء الاصطناعي في الرعاية الصحية." > article.txt
      
    • الإجابة على أسئلة محددة:
      ollama run llama3.2 "ما هي أحدث الاتجاهات في الذكاء الاصطناعي، وكيف ستؤثر على الرعاية الصحية؟"
      

    .

  • معالجة البيانات والتحليل:

    • تصنيف النص إلى مشاعر إيجابية، سلبية، أو محايدة:
      ollama run llama3.2 "تحليل مشاعر هذا المراجعة: 'المنتج رائع، لكن التسليم كان بطيئًا.'"
      
    • تصنيف النص إلى فئات محددة مسبقًا: استخدم أوامر مشابهة لتصنيف أو تصنيف النص بناءً على معايير محددة مسبقًا.

استخدام Ollama مع Python

  • تثبيت مكتبة Ollama لـ Python:
    pip install ollama
    
  • إنشاء نص باستخدام Python:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='ما هو الكيوبت؟')
    print(response['response'])
    
    هذا الكود ينشئ نصًا باستخدام النموذج المحدد والمحفظة.

روابط مفيدة