أولاما ملخص النصائح
قمت بتوثيق قائمة الأوامر هذه الخاصة بـ Ollama منذ فترة قصيرة...
هنا قائمة وأمثلة حول أكثر أوامر Ollama فائدة (قائمة أوامر Ollama)
جمعتها منذ فترة.
أتمنى أن تكون مفيدة لك أيضًا هنا.
هذا دليل أوامر Ollama يركز على الأوامر من الطرفية، وإدارة النماذج، والتكيف.
التثبيت
- الخيار 1: تنزيل من الموقع الإلكتروني
- قم بزيارة ollama.com وقم بتنزيل المثيل المناسب لنظام التشغيل الخاص بك (Mac، Linux، أو Windows).
- الخيار 2: التثبيت عبر سطر الأوامر
- للمستخدمين الذين يستخدمون Mac وLinux، استخدم الأمر التالي:
curl https://ollama.ai/install.sh | sh
- اتبع التعليمات التي تظهر على الشاشة، وادخل كلمة المرور إذا تم طلبها.
- للمستخدمين الذين يستخدمون Mac وLinux، استخدم الأمر التالي:
متطلبات النظام
- نظام التشغيل: Mac أو Linux (نسخة Windows قيد التطوير)
- الذاكرة (RAM): 8 جيجابايت على الأقل، 16 جيجابايت أو أكثر موصى بها
- التخزين: مساحة خالية لا تقل عن ~10 جيجابايت (قد تكون ملفات النماذج كبيرة جدًا، راجع هنا أكثر نقل نماذج Ollama إلى محرك تخزين مختلف)
- المعالج: معالج حديث نسبيًا (من السنوات الخمس الماضية).
أوامر Ollama من الطرفية الأساسية
الأمر | الوصف |
---|---|
ollama serve |
يبدأ تشغيل Ollama على نظامك المحلي. |
ollama create <new_model> |
ينشئ نموذجًا جديدًا من نموذج موجود لإجراء التعديلات أو التدريب. |
ollama show <model> |
يعرض تفاصيل حول نموذج معين، مثل إعداداته وتاريخ الإصدار. |
ollama run <model> |
يبدأ تشغيل النموذج المحدد، مما يجعله جاهزًا للتفاعل. |
ollama pull <model> |
يحمل النموذج المحدد إلى نظامك. |
ollama list |
يعرض قائمة جميع النماذج التي تم تنزيلها. نفس الأمر مثل ollama ls |
ollama ps |
يعرض النماذج التي تعمل حاليًا. |
ollama stop <model> |
يتوقف عن تشغيل النموذج المحدد. |
ollama rm <model> |
يحذف النموذج المحدد من نظامك. |
ollama help |
يوفر مساعدة حول أي أمر. |
إدارة النماذج
-
تنزيل نموذج:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
هذا الأمر يحمل النموذج المحدد (مثل Gemma 2B، أو mistral-nemo:12b-instruct-2407-q6_K) إلى نظامك. قد تكون ملفات النماذج كبيرة جدًا، لذا تأكد من مراقبة المساحة المستخدمة من قبل النماذج على القرص الصلب أو SSD. قد ترغب حتى في نقل جميع نماذج Ollama من دليلك المخصص إلى محرك تخزين أكبر وأفضل
-
تشغيل نموذج:
ollama run qwen2.5:32b-instruct-q3_K_S
هذا الأمر يبدأ تشغيل النموذج المحدد ويفتح REPL تفاعليًا للتفاعل.
-
عرض قائمة النماذج:
ollama list
نفس الأمر مثل:
ollama ls
هذا الأمر يعرض قائمة جميع النماذج التي تم تنزيلها إلى نظامك، مثل
$ ollama ls NAME ID SIZE MODIFIED deepseek-r1:8b 6995872bfe4c 5.2 GB 2 weeks ago gemma3:12b-it-qat 5d4fa005e7bb 8.9 GB 2 weeks ago LoTUs5494/mistral-small-3.1:24b-instruct-2503-iq4_NL 4e994e0f85a0 13 GB 3 weeks ago dengcao/Qwen3-Embedding-8B:Q4_K_M d3ca2355027f 4.7 GB 4 weeks ago dengcao/Qwen3-Embedding-4B:Q5_K_M 7e8c9ad6885b 2.9 GB 4 weeks ago qwen3:8b 500a1f067a9f 5.2 GB 5 weeks ago qwen3:14b bdbd181c33f2 9.3 GB 5 weeks ago qwen3:30b-a3b 0b28110b7a33 18 GB 5 weeks ago devstral:24b c4b2fa0c33d7 14 GB 5 weeks ago
-
إيقاف تشغيل نموذج:
ollama stop llama3.1:8b-instruct-q8_0
هذا الأمر يوقف تشغيل النموذج المحدد.
تعديل النماذج
-
تحديد محفز النظام: داخل REPL لـ Ollama، يمكنك تحديد محفز نظام لتعديل سلوك النموذج:
>>> /set system للإجابة على جميع الأسئلة باللغة الإنجليزية بقدر الإمكان، وتجنب المصطلحات الفنية >>> /save ipe >>> /bye
ثم، قم بتشغيل النموذج المعدل:
ollama run ipe
هذا يحدد محفز النظام ويحفظ النموذج للاستخدام المستقبلي.
-
إنشاء ملف نموذج مخصص: أنشئ ملف نصي (مثل
custom_model.txt
) ببنية التالية:FROM llama3.1 SYSTEM [التعليمات المخصصة هنا]
ثم، قم بتشغيل:
ollama create mymodel -f custom_model.txt ollama run mymodel
هذا ينشئ نموذجًا مخصصًا بناءً على التعليمات في الملف.
استخدام Ollama مع الملفات
-
تلخيص نص من ملف:
ollama run llama3.2 "قم بتلخيص محتوى هذا الملف في 50 كلمة." < input.txt
هذا الأمر يقوم بتلخيص محتوى ملف
input.txt
باستخدام النموذج المحدد. -
تسجيل استجابات النموذج في ملف:
ollama run llama3.2 "أخبرني عن الطاقة المتجددة." > output.txt
هذا الأمر يحفظ استجابة النموذج في ملف
output.txt
.
استخدامات شائعة
-
إنشاء نص:
- تلخيص ملف نص كبير:
ollama run llama3.2 "قم بتلخيص النص التالي:" < long-document.txt
- إنشاء محتوى:
ollama run llama3.2 "اكتب مقالًا قصيرًا حول فوائد استخدام الذكاء الاصطناعي في الرعاية الصحية." > article.txt
- الإجابة على أسئلة محددة:
ollama run llama3.2 "ما هي أحدث الاتجاهات في الذكاء الاصطناعي، وكيف ستؤثر على الرعاية الصحية؟"
.
- تلخيص ملف نص كبير:
-
معالجة البيانات والتحليل:
- تصنيف النص إلى مشاعر إيجابية، سلبية، أو محايدة:
ollama run llama3.2 "تحليل مشاعر هذا المراجعة من العميل: 'المنتج رائع، لكن التسليم كان بطيئًا.'"
- تصنيف النص إلى فئات محددة مسبقًا: استخدم أوامر مشابهة لتصنيف أو تصنيف النص بناءً على معايير محددة مسبقًا.
- تصنيف النص إلى مشاعر إيجابية، سلبية، أو محايدة:
استخدام Ollama مع Python
- تثبيت مكتبة Ollama لـ Python:
pip install ollama
- إنشاء نص باستخدام Python:
هذا الشفرة تنشئ نصًا باستخدام النموذج والمحفز المحدد.
import ollama response = ollama.generate(model='gemma:2b', prompt='ما هو الكيوبت؟') print(response['response'])
روابط مفيدة
- مقارنة مساعدي كتابة الكود الذكاء الاصطناعي
- نقل نماذج Ollama إلى محرك تخزين مختلف أو مجلد
- كيف يتعامل Ollama مع الطلبات المتزامنة
- كيف يستخدم Ollama أداء المعالجات المركزية من إنتل ووحدات المعالجة الفعالة
- اختبار نموذج deepseek-r1 على Ollama
- قائمة اختصارات Bash
- نماذج Qwen3 Embedding & Reranker على Ollama: الأداء الأحدث