أوبن كلاو مع Ollama: الذكاء الاصطناعي بدون إنترنت

أوبن كلاو (OpenClaw) مع Ollama: شغّل الذكاء الاصطناعي محلياً بدون إنترنت

ما ستتعلمه: كيفية ربط أوبن كلاو (OpenClaw) بـ Ollama لتشغيل نماذج ذكاء اصطناعي محلية مثل Llama 3، Mistral، وGemma 3 بدون الحاجة لإنترنت أو مفاتيح API مدفوعة، مع مقارنة أداء 5 نماذج مفتوحة المصدر لاختيار الأنسب لحالتك.

لماذا تشغيل الذكاء الاصطناعي محلياً؟

كثير من المستخدمين يعتمدون حصرياً على نماذج سحابية مثل Claude أو GPT-4، وهذا منطقي في أغلب الأحوال. لكن هناك سيناريوهات يصبح فيها التشغيل المحلي الخيار الأذكى:

الخصوصية الكاملة: بياناتك لا تغادر جهازك أبداً. مثالي للمحامين والأطباء وكل من يتعامل مع معلومات حساسة.

التكلفة الصفرية: بعد إعداد النظام، لا توجد رسوم شهرية أو تكاليف استخدام. النموذج يعمل على معالج جهازك.

الاستقلالية: لا تعتمد على خوادم خارجية، ولا على قرارات شركات قد تغير سياساتها أو ترفع أسعارها.

السرعة في بيئات معينة: على شبكات بطيئة أو في مناطق بعيدة، النموذج المحلي أسرع بكثير.

ما هو Ollama؟

Ollama أداة مفتوحة المصدر تسمح بتحميل وتشغيل نماذج لغوية كبيرة (LLMs) على جهازك الشخصي بسهولة تامة. تدعم macOS وLinux وWindows، وتوفر واجهة API متوافقة مع معيار OpenAI، مما يجعل تكاملها مع أوبن كلاو (OpenClaw) سلساً جداً.

النماذج المتاحة تشمل: Llama 3.2، Mistral، Gemma 3، Phi-4، Qwen 2.5، DeepSeek R1، وعشرات النماذج الأخرى.

المتطلبات الأساسية

قبل البدء، تأكد من توفر التالي:

الجهاز:

  • ذاكرة RAM: 8 غيغابايت على الأقل (16 موصى بها)
  • مساحة تخزين: 5 إلى 50 غيغابايت حسب النموذج
  • معالج حديث (Apple Silicon أو Intel/AMD حديث)

البرامج:

  • أوبن كلاو (OpenClaw) مثبت ويعمل
  • اتصال إنترنت لتحميل النماذج مرة واحدة فقط

الخطوة 1: تثبيت Ollama

على macOS

curl -fsSL https://ollama.com/install.sh | sh

أو تحميل التطبيق مباشرة من الموقع الرسمي ollama.com. بعد التثبيت، سيعمل Ollama كخدمة في الخلفية تلقائياً.

على Linux (Ubuntu/Debian)

curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl enable ollama
sudo systemctl start ollama

على Windows

حمّل المثبت من ollama.com/download وشغّله. يعمل كتطبيق في شريط النظام.

للتحقق من نجاح التثبيت:

ollama --version
# النتيجة المتوقعة: ollama version 0.x.x

الخطوة 2: تحميل نموذج ذكاء اصطناعي

إليك المقارنة بين أبرز النماذج المتاحة:

النموذجالحجممتطلبات RAMالأداءالاستخدام الأمثل
Llama 3.2 (3B)2 غيغابايت4 غيغابايتممتاز لحجمهمهام خفيفة، رسائل
Mistral 7B4 غيغابايت8 غيغابايتجيد جداًكتابة عامة، تحليل
Llama 3.1 (8B)5 غيغابايت8 غيغابايتممتازمهام معقدة متوسطة
Gemma 3 (9B)6 غيغابايت12 غيغابايتممتازكود + منطق
Qwen 2.5 (14B)9 غيغابايت16 غيغابايتقوي جداًعربي + متعدد اللغات

توصية للمستخدمين العرب: نموذج Qwen 2.5 يتميز بدعم قوي للغة العربية مقارنة بالنماذج الأخرى. إذا كنت ستعمل بالعربية بشكل أساسي، ابدأ به.

لتحميل نموذج:

# نموذج خفيف للبداية
ollama pull llama3.2

# للعربية والمهام المتقدمة
ollama pull qwen2.5

# للأكواد البرمجية
ollama pull gemma3

التحميل يستغرق من 5 إلى 30 دقيقة حسب حجم النموذج وسرعة إنترنتك. يحدث مرة واحدة فقط.

الخطوة 3: ربط Ollama بأوبن كلاو (OpenClaw)

Ollama يعمل كخادم API محلي على المنفذ 11434، وأوبن كلاو (OpenClaw) يدعم أي نقطة نهاية متوافقة مع OpenAI.

افتح ملف إعدادات أوبن كلاو:

# macOS/Linux
nano ~/.config/openclaw/config.yaml

أضف أو عدّل قسم النماذج:

models:
  - id: "ollama/llama3.2"
    name: "Llama 3.2 (Local)"
    baseUrl: "http://localhost:11434/v1"
    apiKey: "ollama"
    model: "llama3.2"
    local: true

  - id: "ollama/qwen2.5"
    name: "Qwen 2.5 Arabic (Local)"
    baseUrl: "http://localhost:11434/v1"
    apiKey: "ollama"
    model: "qwen2.5"
    local: true

احفظ الملف وأعد تشغيل أوبن كلاو:

openclaw gateway restart

الخطوة 4: التبديل بين النماذج في أوبن كلاو

بعد الإعداد، يمكنك التبديل بين النماذج مباشرة من واجهة أوبن كلاو. في Telegram أو Discord، اكتب:

/model ollama/qwen2.5

أو من خلال إعدادات الجلسة في واجهة الويب. ستلاحظ فوراً أن الردود تأتي من الجهاز المحلي دون أي طلبات خارجية.

للتحقق من أن النموذج يعمل محلياً:

curl http://localhost:11434/api/generate -d '{
  "model": "qwen2.5",
  "prompt": "مرحباً، كيف حالك؟",
  "stream": false
}'

سيناريوهات عملية: متى تستخدم النموذج المحلي؟

سيناريو 1: المحامي أو الطبيب

تعمل مع ملفات عملاء سرية وتحتاج لتلخيصها أو صياغة رسائل منها. باستخدام Ollama مع أوبن كلاو (OpenClaw)، تبقى البيانات على جهازك تماماً:

/model ollama/qwen2.5
لخّص هذا العقد وأبرز أهم البنود...
[نص العقد السري]

سيناريو 2: الشركة بدون إنترنت مستقر

في مصانع أو مواقع إنشاء بعيدة، يعمل النظام على الشبكة الداخلية بدون الحاجة لإنترنت خارجي.

سيناريو 3: تقليل التكاليف للمهام الروتينية

استخدم النماذج المحلية للمهام البسيطة (تلخيص، تصنيف، رد آلي)، واحتفظ بـ Claude أو GPT-4 للمهام المعقدة التي تستحق التكلفة.

تحسين الأداء على أجهزة Apple Silicon

أجهزة Mac بمعالجات M1/M2/M3/M4 تعمل مع Ollama بكفاءة استثنائية بسبب بنية الذاكرة الموحدة (Unified Memory). للحصول على أفضل أداء:

# تفعيل استخدام GPU على Apple Silicon
OLLAMA_NUM_GPU=1 ollama serve

على MacBook Pro M3 بـ 18 غيغابايت RAM، نموذج Llama 3.1 (8B) يُنتج 40 إلى 60 رمزاً في الثانية، وهو سريع بما يكفي للاستخدام التفاعلي.

النماذج المحلية مقابل النماذج السحابية: مقارنة صريحة

المعيارنماذج محلية (Ollama)نماذج سحابية (Claude/GPT)
الخصوصيةكاملة 100%تخضع لسياسة المزود
التكلفةصفر بعد الإعداداشتراك شهري أو رسوم API
الجودةجيدة إلى ممتازةممتازة إلى استثنائية
السرعةتعتمد على جهازكثابتة وعالية عموماً
التحديثاتيدويةتلقائية دائماً
دعم العربيةمتفاوتممتاز (خاصة Claude)
الإعداديتطلب جهداً أولياًجاهز فوراً

الخلاصة: النماذج المحلية ليست بديلاً كاملاً للنماذج السحابية، لكنها أداة قوية في المنظومة الصحيحة.

مقالات ذات صلة

الأسئلة الشائعة

هل يمكن تشغيل Ollama مع أوبن كلاو على نفس الجهاز؟ نعم، هذا هو الإعداد الأكثر شيوعاً. أوبن كلاو يتصل بـ Ollama عبر localhost على المنفذ 11434، ولا يوجد أي تعارض بين البرنامجين.

ما الحد الأدنى للأجهزة لتشغيل نموذج مفيد؟ جهاز بـ 8 غيغابايت RAM يكفي لتشغيل نماذج حجم 7 إلى 8 مليارات معامل (7B/8B) بشكل مقبول. للاستخدام المريح والسريع، يُفضل 16 غيغابايت.

هل النماذج المحلية تدعم اللغة العربية جيداً؟ يتفاوت الدعم بين النماذج. Qwen 2.5 هو الأفضل حالياً للعربية بين النماذج مفتوحة المصدر، يليه Llama 3.1. نماذج Mistral أضعف نسبياً في العربية.

هل يمكن تشغيل أوبن كلاو مع Ollama على خادم VPS ومشاركته مع الفريق؟ نعم، يمكن تثبيت Ollama على خادم وربطه بنسخة أوبن كلاو (OpenClaw) المستضافة. بهذا يستفيد الفريق كله من النموذج المحلي دون أن يُثبت كل شخص النموذج على جهازه.

هل تحديث النموذج يلغي الإعدادات السابقة في أوبن كلاو؟ لا، تحديث النموذج عبر ollama pull يُحدّث الملفات فقط. إعدادات أوبن كلاو في ملف config.yaml تبقى كما هي ولا تتأثر.