أولاما شيت كتّاب
جمعت بعضها للاستخدام في المستقبل...
هنا قائمة بال명령ات الأكثر فائدة في Ollama (قائمة الأوامر المختصرة لـ Ollama) جمعتها منذ فترة.
أتمنى أن تكون مفيدة لك.
هذا المخطط المختصر لـ Ollama يركز على الأوامر من خلال الواجهة، وإدارة النماذج، والتهيئة
التثبيت
- الخيار 1: تنزيل من الموقع
- قم بزيارة ollama.com وتنزيل المثيل المناسب لنظام التشغيل الخاص بك (Mac، Linux، أو Windows).
- الخيار 2: التثبيت عبر سطر الأوامر
- للمستخدمين في Mac وLinux، استخدم الأمر:
curl https://ollama.ai/install.sh | sh
- اتبع التعليمات التي تظهر على الشاشة وادخل كلمة المرور إذا تم طلبها[3].
- للمستخدمين في Mac وLinux، استخدم الأمر:
متطلبات النظام
- نظام التشغيل: Mac أو Linux (نسخة Windows قيد التطوير)
- الذاكرة (RAM): 8 جيجابايت على الأقل، 16 جيجابايت أو أكثر موصى بها
- التخزين: مساحة حرة لا تقل عن ~10 جيجابايت
- المعالج: معالج حديث نسبياً (من السنوات الخمس الماضية)[3].
الأوامر الأساسية لواجهة Ollama من خلال سطر الأوامر
الأمر | الوصف |
---|---|
ollama serve |
يبدأ تشغيل Ollama على نظامك المحلي. |
ollama create <new_model> |
ينشئ نموذجاً جديداً من نموذج موجود لإجراء التعديلات أو التدريب. |
ollama show <model> |
يعرض تفاصيل حول نموذج معين، مثل إعداداته وتاريخ الإصدار. |
ollama run <model> |
يبدأ تشغيل النموذج المحدد، مما يجعله جاهزاً للتفاعل. |
ollama pull <model> |
يحمل النموذج المحدد إلى نظامك. |
ollama list |
يعرض قائمة بكل النماذج التي تم تنزيلها. |
ollama ps |
يعرض النماذج التي تعمل حالياً. |
ollama stop <model> |
يتوقف عن تشغيل النموذج المحدد. |
ollama rm <model> |
يحذف النموذج المحدد من نظامك. |
ollama help |
يوفر مساعدة حول أي أمر. |
إدارة النماذج
-
تنزيل نموذج:
ollama pull mistral-nemo:12b-instruct-2407-q6_K
هذا الأمر يحمل النموذج المحدد (مثلاً Gemma 2B) إلى نظامك.
-
تشغيل نموذج:
ollama run qwen2.5:32b-instruct-q3_K_S
هذا الأمر يبدأ تشغيل النموذج المحدد ويفتح واجهة REPL التفاعلية.
-
عرض قائمة النماذج:
ollama list
هذا الأمر يعرض قائمة بكل النماذج التي تم تنزيلها إلى نظامك.
-
إيقاف تشغيل نموذج:
ollama stop llama3.1:8b-instruct-q8_0
هذا الأمر يوقف تشغيل النموذج المحدد.
تخصيص النماذج
-
تعيين محفز النظام: داخل واجهة REPL لـ Ollama، يمكنك تعيين محفز للنظام لتخصيص سلوك النموذج:
>>> /set system للإجابة عن جميع الأسئلة باللغة الإنجليزية بقدر الإمكان مع تجنب المصطلحات الفنية >>> /save ipe >>> /bye
ثم، قم بتشغيل النموذج المخصص:
ollama run ipe
هذا يضبط محفز النظام ويحفظ النموذج للاستخدام المستقبلي.
-
إنشاء ملف نموذج مخصص: أنشئ ملف نصي (مثلاً
custom_model.txt
) ببنية كالتالي:FROM llama3.1 SYSTEM [التعليمات المخصصة هنا]
ثم، قم بتشغيل:
ollama create mymodel -f custom_model.txt ollama run mymodel
هذا ينشئ نموذجاً مخصصاً بناءً على التعليمات في الملف[3].
استخدام Ollama مع الملفات
-
ملخص نص من ملف:
ollama run llama3.2 "ملخص محتوى هذا الملف في 50 كلمة." < input.txt
هذا الأمر يلخص محتوى
input.txt
باستخدام النموذج المحدد. -
تسجيل استجابات النموذج في ملف:
ollama run llama3.2 "أخبرني عن الطاقة المتجددة." > output.txt
هذا الأمر يحفظ استجابة النموذج في
output.txt
.
استخدامات شائعة
-
إنشاء نص:
- ملخص ملف نص كبير:
ollama run llama3.2 "ملخص النص التالي:" < long-document.txt
- إنشاء محتوى:
ollama run llama3.2 "اكتب مقالاً قصيراً عن فوائد استخدام الذكاء الاصطناعي في الرعاية الصحية." > article.txt
- الإجابة على أسئلة محددة:
ollama run llama3.2 "ما هي أحدث الاتجاهات في الذكاء الاصطناعي، وكيف ستؤثر على الرعاية الصحية؟"
.
- ملخص ملف نص كبير:
-
معالجة البيانات والتحليل:
- تصنيف النص إلى مشاعر إيجابية، سلبية، أو محايدة:
ollama run llama3.2 "حلل مشاعر هذا المراجعة: 'المنتج رائع، لكن التسليم كان بطيئاً.'"
- تصنيف النص إلى فئات محددة مسبقًا: استخدم أوامر مشابهة لتصنيف أو ترتيب النص بناءً على معايير محددة مسبقًا.
- تصنيف النص إلى مشاعر إيجابية، سلبية، أو محايدة:
استخدام Ollama مع Python
- تثبيت مكتبة Ollama لـ Python:
pip install ollama
- إنشاء نص باستخدام Python:
هذا المقتطف من الكود ينشئ نصاً باستخدام النموذج والمحفظة المحددين.
import ollama response = ollama.generate(model='gemma:2b', prompt='ما هو الكيوبت؟') print(response['response'])
روابط مفيدة
- مقارنة مساعدي البرمجة الذكاء الاصطناعي
- نقل نماذج Ollama إلى محرك أو مجلد مختلف
- كيف يتعامل Ollama مع الطلبات المتزامنة
- كيف يستخدم Ollama أداء المعالجات المركزية من إنتل ووحدات المعالجة الفعالة
- اختبار نموذج Deepseek-r1 على Ollama
- قائمة الأوامر المختصرة لـ Bash
- نموذج Qwen3 Embedding & Reranker على Ollama: الأداء الأحدث