أولاما ملخص النصائح

قمت بتوثيق قائمة الأوامر هذه الخاصة بـ Ollama منذ فترة قصيرة...

Page content

هنا قائمة وأمثلة حول أكثر أوامر Ollama فائدة (قائمة أوامر Ollama)
جمعتها منذ فترة.

أتمنى أن تكون مفيدة لك أيضًا هنا.

ollama cheatsheet

هذا دليل أوامر Ollama يركز على الأوامر من الطرفية، وإدارة النماذج، والتكيف.

التثبيت

  • الخيار 1: تنزيل من الموقع الإلكتروني
    • قم بزيارة ollama.com وقم بتنزيل المثيل المناسب لنظام التشغيل الخاص بك (Mac، Linux، أو Windows).
  • الخيار 2: التثبيت عبر سطر الأوامر
    • للمستخدمين الذين يستخدمون Mac وLinux، استخدم الأمر التالي:
      curl https://ollama.ai/install.sh | sh
      
    • اتبع التعليمات التي تظهر على الشاشة، وادخل كلمة المرور إذا تم طلبها.

متطلبات النظام

  • نظام التشغيل: Mac أو Linux (نسخة Windows قيد التطوير)
  • الذاكرة (RAM): 8 جيجابايت على الأقل، 16 جيجابايت أو أكثر موصى بها
  • التخزين: مساحة خالية لا تقل عن ~10 جيجابايت (قد تكون ملفات النماذج كبيرة جدًا، راجع هنا أكثر نقل نماذج Ollama إلى محرك تخزين مختلف)
  • المعالج: معالج حديث نسبيًا (من السنوات الخمس الماضية).

أوامر Ollama من الطرفية الأساسية

الأمر الوصف
ollama serve يبدأ تشغيل Ollama على نظامك المحلي.
ollama create <new_model> ينشئ نموذجًا جديدًا من نموذج موجود لإجراء التعديلات أو التدريب.
ollama show <model> يعرض تفاصيل حول نموذج معين، مثل إعداداته وتاريخ الإصدار.
ollama run <model> يبدأ تشغيل النموذج المحدد، مما يجعله جاهزًا للتفاعل.
ollama pull <model> يحمل النموذج المحدد إلى نظامك.
ollama list يعرض قائمة جميع النماذج التي تم تنزيلها. نفس الأمر مثل ollama ls
ollama ps يعرض النماذج التي تعمل حاليًا.
ollama stop <model> يتوقف عن تشغيل النموذج المحدد.
ollama rm <model> يحذف النموذج المحدد من نظامك.
ollama help يوفر مساعدة حول أي أمر.

إدارة النماذج

  • تنزيل نموذج:

    ollama pull mistral-nemo:12b-instruct-2407-q6_K
    

    هذا الأمر يحمل النموذج المحدد (مثل Gemma 2B، أو mistral-nemo:12b-instruct-2407-q6_K) إلى نظامك. قد تكون ملفات النماذج كبيرة جدًا، لذا تأكد من مراقبة المساحة المستخدمة من قبل النماذج على القرص الصلب أو SSD. قد ترغب حتى في نقل جميع نماذج Ollama من دليلك المخصص إلى محرك تخزين أكبر وأفضل

  • تشغيل نموذج:

    ollama run qwen2.5:32b-instruct-q3_K_S
    

    هذا الأمر يبدأ تشغيل النموذج المحدد ويفتح REPL تفاعليًا للتفاعل.

  • عرض قائمة النماذج:

    ollama list
    

    نفس الأمر مثل:

    ollama ls
    

    هذا الأمر يعرض قائمة جميع النماذج التي تم تنزيلها إلى نظامك، مثل

    $ ollama ls
    NAME                                                    ID              SIZE      MODIFIED     
    deepseek-r1:8b                                          6995872bfe4c    5.2 GB    2 weeks ago     
    gemma3:12b-it-qat                                       5d4fa005e7bb    8.9 GB    2 weeks ago     
    LoTUs5494/mistral-small-3.1:24b-instruct-2503-iq4_NL    4e994e0f85a0    13 GB     3 weeks ago     
    dengcao/Qwen3-Embedding-8B:Q4_K_M                       d3ca2355027f    4.7 GB    4 weeks ago     
    dengcao/Qwen3-Embedding-4B:Q5_K_M                       7e8c9ad6885b    2.9 GB    4 weeks ago     
    qwen3:8b                                                500a1f067a9f    5.2 GB    5 weeks ago     
    qwen3:14b                                               bdbd181c33f2    9.3 GB    5 weeks ago     
    qwen3:30b-a3b                                           0b28110b7a33    18 GB     5 weeks ago     
    devstral:24b                                            c4b2fa0c33d7    14 GB     5 weeks ago  
    
  • إيقاف تشغيل نموذج:

    ollama stop llama3.1:8b-instruct-q8_0
    

    هذا الأمر يوقف تشغيل النموذج المحدد.

تعديل النماذج

  • تحديد محفز النظام: داخل REPL لـ Ollama، يمكنك تحديد محفز نظام لتعديل سلوك النموذج:

    >>> /set system للإجابة على جميع الأسئلة باللغة الإنجليزية بقدر الإمكان، وتجنب المصطلحات الفنية
    >>> /save ipe
    >>> /bye
    

    ثم، قم بتشغيل النموذج المعدل:

    ollama run ipe
    

    هذا يحدد محفز النظام ويحفظ النموذج للاستخدام المستقبلي.

  • إنشاء ملف نموذج مخصص: أنشئ ملف نصي (مثل custom_model.txt) ببنية التالية:

    FROM llama3.1
    SYSTEM [التعليمات المخصصة هنا]
    

    ثم، قم بتشغيل:

    ollama create mymodel -f custom_model.txt
    ollama run mymodel
    

    هذا ينشئ نموذجًا مخصصًا بناءً على التعليمات في الملف.

استخدام Ollama مع الملفات

  • تلخيص نص من ملف:

    ollama run llama3.2 "قم بتلخيص محتوى هذا الملف في 50 كلمة." < input.txt
    

    هذا الأمر يقوم بتلخيص محتوى ملف input.txt باستخدام النموذج المحدد.

  • تسجيل استجابات النموذج في ملف:

    ollama run llama3.2 "أخبرني عن الطاقة المتجددة." > output.txt
    

    هذا الأمر يحفظ استجابة النموذج في ملف output.txt.

استخدامات شائعة

  • إنشاء نص:

    • تلخيص ملف نص كبير:
      ollama run llama3.2 "قم بتلخيص النص التالي:" < long-document.txt
      
    • إنشاء محتوى:
      ollama run llama3.2 "اكتب مقالًا قصيرًا حول فوائد استخدام الذكاء الاصطناعي في الرعاية الصحية." > article.txt
      
    • الإجابة على أسئلة محددة:
      ollama run llama3.2 "ما هي أحدث الاتجاهات في الذكاء الاصطناعي، وكيف ستؤثر على الرعاية الصحية؟"
      

    .

  • معالجة البيانات والتحليل:

    • تصنيف النص إلى مشاعر إيجابية، سلبية، أو محايدة:
      ollama run llama3.2 "تحليل مشاعر هذا المراجعة من العميل: 'المنتج رائع، لكن التسليم كان بطيئًا.'"
      
    • تصنيف النص إلى فئات محددة مسبقًا: استخدم أوامر مشابهة لتصنيف أو تصنيف النص بناءً على معايير محددة مسبقًا.

استخدام Ollama مع Python

  • تثبيت مكتبة Ollama لـ Python:
    pip install ollama
    
  • إنشاء نص باستخدام Python:
    import ollama
    
    response = ollama.generate(model='gemma:2b', prompt='ما هو الكيوبت؟')
    print(response['response'])
    
    هذا الشفرة تنشئ نصًا باستخدام النموذج والمحفز المحدد.

روابط مفيدة