دليل مساعد Ollama - الأوامر الأكثر فائدة
أعدت تجميع قائمة الأوامر هذه لـ Ollama منذ بضع وقت مضى...
هنا قائمة بأهم أوامر Ollama (قائمة أوامر Ollama)
جمعتها منذ فترة.
أتمنى أن تكون مفيدة لك أيضًا هنا.

هذا دليل أوامر Ollama يركز على الأوامر من خلال واجهة سطر الأوامر، وإدارة النماذج، والتكيف،
لكن لدينا أيضًا بعض مكالمات curl هنا أيضًا.
التثبيت
- الخيار 1: تنزيل من الموقع
- قم بزيارة ollama.com وقم بتنزيل المثيل المناسب لنظام التشغيل الخاص بك (Mac، Linux، أو Windows).
- الخيار 2: التثبيت عبر سطر الأوامر
- للمستخدمين الذين يستخدمون Mac وLinux، استخدم الأمر التالي:
curl https://ollama.ai/install.sh | sh
- اتبع التعليمات التي تظهر على الشاشة، وادخل كلمة المرور إذا تم طلبها.
متطلبات النظام
- نظام التشغيل: Mac أو Linux (النسخة الخاصة بـ Windows قيد التطوير)
- الذاكرة (RAM): 8 جيجابايت على الأقل، 16 جيجابايت أو أكثر موصى بها
- التخزين: مساحة حرة لا تقل عن ~10 جيجابايت (قد تكون ملفات النماذج كبيرة جدًا، راجع هنا المزيد نقل نماذج Ollama إلى محرك تخزين مختلف)
- المعالج: معالج حديث نسبيًا (من السنوات الخمس الماضية).
أوامر Ollama الأساسية من خلال واجهة سطر الأوامر
| الأوامر | الوصف |
|---|---|
ollama serve |
يبدأ تشغيل Ollama على نظامك المحلي. |
ollama create <new_model> |
ينشئ نموذجًا جديدًا من نموذج موجود لإجراء التعديلات أو التدريب. |
ollama show <model> |
يعرض تفاصيل حول نموذج معين، مثل إعداداته وتاريخ الإصدار. |
ollama run <model> |
يبدأ تشغيل النموذج المحدد، مما يجعله جاهزًا للتفاعل. |
ollama pull <model> |
يحمل النموذج المحدد إلى نظامك. |
ollama list |
يعرض قائمة جميع النماذج التي تم تنزيلها. نفس الأمر مثل ollama ls |
ollama ps |
يعرض النماذج التي تعمل حاليًا. |
ollama stop <model> |
يتوقف عن تشغيل النموذج المحدد. |
ollama rm <model> |
يحذف النموذج المحدد من نظامك. |
ollama help |
يوفر مساعدة حول أي أمر. |
إدارة النماذج
-
تنزيل نموذج:
ollama pull mistral-nemo:12b-instruct-2407-q6_Kهذا الأمر يحمل النموذج المحدد (مثل Gemma 2B، أو mistral-nemo:12b-instruct-2407-q6_K) إلى نظامك. قد تكون ملفات النماذج كبيرة جدًا، لذا تأكد من مراقبة المساحة المستخدمة من قبل النماذج على القرص الصلب أو SSD. قد ترغب حتى في نقل جميع نماذج Ollama من دليلك المخصص إلى محرك تخزين أكبر وأفضل
-
تشغيل نموذج:
ollama run qwen2.5:32b-instruct-q3_K_Sهذا الأمر يبدأ تشغيل النموذج المحدد ويفتح REPL تفاعليًا للتفاعل.
-
عرض قائمة النماذج:
ollama listنفس الأمر مثل:
ollama lsهذا الأمر يعرض قائمة جميع النماذج التي تم تنزيلها إلى نظامك، مثل
$ ollama ls NAME ID SIZE MODIFIED deepseek-r1:8b 6995872bfe4c 5.2 GB منذ أسبوعين gemma3:12b-it-qat 5d4fa005e7bb 8.9 GB منذ أسبوعين LoTUs5494/mistral-small-3.1:24b-instruct-2503-iq4_NL 4e994e0f85a0 13 GB منذ 3 أسابيع dengcao/Qwen3-Embedding-8B:Q4_K_M d3ca2355027f 4.7 GB منذ 4 أسابيع dengcao/Qwen3-Embedding-4B:Q5_K_M 7e8c9ad6885b 2.9 GB منذ 4 أسابيع qwen3:8b 500a1f067a9f 5.2 GB منذ 5 أسابيع qwen3:14b bdbd181c33f2 9.3 GB منذ 5 أسابيع qwen3:30b-a3b 0b28110b7a33 18 GB منذ 5 أسابيع devstral:24b c4b2fa0c33d7 14 GB منذ 5 أسابيع -
إيقاف تشغيل نموذج:
ollama stop llama3.1:8b-instruct-q8_0هذا الأمر يوقف تشغيل النموذج المحدد.
إصدار النموذج من VRAM
عندما يتم تحميل نموذج إلى VRAM (ذاكرة GPU)، يبقى هناك حتى بعد انتهاء استخدامك له. لتفريغ النموذج من VRAM وتحرير مساحة ذاكرة GPU بشكل صريح، يمكنك إرسال طلب إلى واجهة برمجة التطبيقات الخاصة بـ Ollama مع keep_alive: 0.
- إطلاق النموذج من VRAM باستخدام curl:
curl http://localhost:11434/api/generate -d '{"model": "MODELNAME", "keep_alive": 0}'
استبدل MODELNAME باسم النموذج الفعلي، على سبيل المثال:
curl http://localhost:11434/api/generate -d '{"model": "qwen3:14b", "keep_alive": 0}'
- إطلاق النموذج من VRAM باستخدام Python:
import requests
response = requests.post(
'http://localhost:11434/api/generate',
json={'model': 'qwen3:14b', 'keep_alive': 0}
)
هذا مفيد بشكل خاص عندما:
- تحتاج إلى تحرير مساحة ذاكرة GPU لتطبيقات أخرى
- تستخدم عدة نماذج وتريد إدارة استخدام VRAM
- انتهيت من استخدام نموذج كبير وتريد تحرير الموارد فورًا
ملاحظة: يتحكم معلمة keep_alive في مدة (بالثوانى) التي يبقى فيها النموذج مُحمّلًا في الذاكرة بعد آخر طلب. وضعها على 0 يُفرغ النموذج من VRAM فورًا.
تعديل النماذج
-
تحديد محفز النظام: داخل REPL الخاص بـ Ollama، يمكنك تحديد محفز النظام لتخصيص سلوك النموذج:
>>> /set system للإجابة على جميع الأسئلة باللغة الإنجليزية بقدر الإمكان، وتجنب المصطلحات الفنية >>> /save ipe >>> /byeثم، قم بتشغيل النموذج المخصص:
ollama run ipeهذا يحدد محفز النظام ويحفظ النموذج للاستخدام المستقبلي.
-
إنشاء ملف نموذج مخصص: أنشئ ملف نصي (مثلاً،
custom_model.txt) ببنية التالية:FROM llama3.1 SYSTEM [التعليمات المخصصة هنا]ثم، قم بتشغيل:
ollama create mymodel -f custom_model.txt ollama run mymodelهذا ينشئ نموذجًا مخصصًا بناءً على التعليمات الموجودة في الملف.
استخدام Ollama مع الملفات
-
ملخص النص من ملف:
ollama run llama3.2 "ملخص محتوى هذا الملف في 50 كلمة." < input.txtهذا الأمر يلخص محتوى
input.txtباستخدام النموذج المحدد. -
تسجيل استجابات النموذج في ملف:
ollama run llama3.2 "أخبرني عن الطاقة المتجددة." > output.txtهذا الأمر يحفظ استجابة النموذج في
output.txt.
استخدامات شائعة
-
إنشاء النص:
- ملخص ملف نصي كبير:
ollama run llama3.2 "ملخص النص التالي:" < long-document.txt - إنشاء محتوى:
ollama run llama3.2 "اكتب مقالًا قصيرًا عن فوائد استخدام الذكاء الاصطناعي في الرعاية الصحية." > article.txt - الإجابة على أسئلة محددة:
ollama run llama3.2 "ما هي أحدث الاتجاهات في الذكاء الاصطناعي، وكيف ستؤثر على الرعاية الصحية؟"
.
- ملخص ملف نصي كبير:
-
معالجة البيانات والتحليل:
- تصنيف النص إلى مشاعر إيجابية، سلبية، أو محايدة:
ollama run llama3.2 "تحليل مشاعر هذا المراجعة: 'المنتج رائع، لكن التسليم كان بطيئًا.'" - تصنيف النص إلى فئات محددة مسبقًا: استخدم أوامر مشابهة لتصنيف أو تصنيف النص بناءً على معايير محددة مسبقًا.
- تصنيف النص إلى مشاعر إيجابية، سلبية، أو محايدة:
استخدام Ollama مع Python
- تثبيت مكتبة Ollama لـ Python:
pip install ollama - إنشاء نص باستخدام Python:
هذا الكود ينشئ نصًا باستخدام النموذج المحدد والمحفظة.
import ollama response = ollama.generate(model='gemma:2b', prompt='ما هو الكيوبت؟') print(response['response'])
روابط مفيدة
- مقارنة مساعدي كتابة الكود الذكاء الاصطناعي
- نقل نماذج Ollama إلى محرك تخزين مختلف أو مجلد
- كيف يتعامل Ollama مع الطلبات المتزامنة
- كيف يستخدم Ollama أداء المعالجات المركزية من إنتل ووحدات المعالجة الفعالة
- اختبار نموذج deepseek-r1 على Ollama
- قائمة الأوامر لـ Bash
- نماذج Qwen3 Embedding & Reranker على Ollama: الأداء الأحدث