أوبن كلاو مع Ollama: الذكاء الاصطناعي بدون إنترنت
أوبن كلاو (OpenClaw) مع Ollama: شغّل الذكاء الاصطناعي محلياً بدون إنترنت
ما ستتعلمه: كيفية ربط أوبن كلاو (OpenClaw) بـ Ollama لتشغيل نماذج ذكاء اصطناعي محلية مثل Llama 3، Mistral، وGemma 3 بدون الحاجة لإنترنت أو مفاتيح API مدفوعة، مع مقارنة أداء 5 نماذج مفتوحة المصدر لاختيار الأنسب لحالتك.
لماذا تشغيل الذكاء الاصطناعي محلياً؟
كثير من المستخدمين يعتمدون حصرياً على نماذج سحابية مثل Claude أو GPT-4، وهذا منطقي في أغلب الأحوال. لكن هناك سيناريوهات يصبح فيها التشغيل المحلي الخيار الأذكى:
الخصوصية الكاملة: بياناتك لا تغادر جهازك أبداً. مثالي للمحامين والأطباء وكل من يتعامل مع معلومات حساسة.
التكلفة الصفرية: بعد إعداد النظام، لا توجد رسوم شهرية أو تكاليف استخدام. النموذج يعمل على معالج جهازك.
الاستقلالية: لا تعتمد على خوادم خارجية، ولا على قرارات شركات قد تغير سياساتها أو ترفع أسعارها.
السرعة في بيئات معينة: على شبكات بطيئة أو في مناطق بعيدة، النموذج المحلي أسرع بكثير.
ما هو Ollama؟
Ollama أداة مفتوحة المصدر تسمح بتحميل وتشغيل نماذج لغوية كبيرة (LLMs) على جهازك الشخصي بسهولة تامة. تدعم macOS وLinux وWindows، وتوفر واجهة API متوافقة مع معيار OpenAI، مما يجعل تكاملها مع أوبن كلاو (OpenClaw) سلساً جداً.
النماذج المتاحة تشمل: Llama 3.2، Mistral، Gemma 3، Phi-4، Qwen 2.5، DeepSeek R1، وعشرات النماذج الأخرى.
المتطلبات الأساسية
قبل البدء، تأكد من توفر التالي:
الجهاز:
- ذاكرة RAM: 8 غيغابايت على الأقل (16 موصى بها)
- مساحة تخزين: 5 إلى 50 غيغابايت حسب النموذج
- معالج حديث (Apple Silicon أو Intel/AMD حديث)
البرامج:
- أوبن كلاو (OpenClaw) مثبت ويعمل
- اتصال إنترنت لتحميل النماذج مرة واحدة فقط
الخطوة 1: تثبيت Ollama
على macOS
curl -fsSL https://ollama.com/install.sh | sh
أو تحميل التطبيق مباشرة من الموقع الرسمي ollama.com. بعد التثبيت، سيعمل Ollama كخدمة في الخلفية تلقائياً.
على Linux (Ubuntu/Debian)
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl enable ollama
sudo systemctl start ollama
على Windows
حمّل المثبت من ollama.com/download وشغّله. يعمل كتطبيق في شريط النظام.
للتحقق من نجاح التثبيت:
ollama --version
# النتيجة المتوقعة: ollama version 0.x.x
الخطوة 2: تحميل نموذج ذكاء اصطناعي
إليك المقارنة بين أبرز النماذج المتاحة:
| النموذج | الحجم | متطلبات RAM | الأداء | الاستخدام الأمثل |
|---|---|---|---|---|
| Llama 3.2 (3B) | 2 غيغابايت | 4 غيغابايت | ممتاز لحجمه | مهام خفيفة، رسائل |
| Mistral 7B | 4 غيغابايت | 8 غيغابايت | جيد جداً | كتابة عامة، تحليل |
| Llama 3.1 (8B) | 5 غيغابايت | 8 غيغابايت | ممتاز | مهام معقدة متوسطة |
| Gemma 3 (9B) | 6 غيغابايت | 12 غيغابايت | ممتاز | كود + منطق |
| Qwen 2.5 (14B) | 9 غيغابايت | 16 غيغابايت | قوي جداً | عربي + متعدد اللغات |
توصية للمستخدمين العرب: نموذج Qwen 2.5 يتميز بدعم قوي للغة العربية مقارنة بالنماذج الأخرى. إذا كنت ستعمل بالعربية بشكل أساسي، ابدأ به.
لتحميل نموذج:
# نموذج خفيف للبداية
ollama pull llama3.2
# للعربية والمهام المتقدمة
ollama pull qwen2.5
# للأكواد البرمجية
ollama pull gemma3
التحميل يستغرق من 5 إلى 30 دقيقة حسب حجم النموذج وسرعة إنترنتك. يحدث مرة واحدة فقط.
الخطوة 3: ربط Ollama بأوبن كلاو (OpenClaw)
Ollama يعمل كخادم API محلي على المنفذ 11434، وأوبن كلاو (OpenClaw) يدعم أي نقطة نهاية متوافقة مع OpenAI.
افتح ملف إعدادات أوبن كلاو:
# macOS/Linux
nano ~/.config/openclaw/config.yaml
أضف أو عدّل قسم النماذج:
models:
- id: "ollama/llama3.2"
name: "Llama 3.2 (Local)"
baseUrl: "http://localhost:11434/v1"
apiKey: "ollama"
model: "llama3.2"
local: true
- id: "ollama/qwen2.5"
name: "Qwen 2.5 Arabic (Local)"
baseUrl: "http://localhost:11434/v1"
apiKey: "ollama"
model: "qwen2.5"
local: true
احفظ الملف وأعد تشغيل أوبن كلاو:
openclaw gateway restart
الخطوة 4: التبديل بين النماذج في أوبن كلاو
بعد الإعداد، يمكنك التبديل بين النماذج مباشرة من واجهة أوبن كلاو. في Telegram أو Discord، اكتب:
/model ollama/qwen2.5
أو من خلال إعدادات الجلسة في واجهة الويب. ستلاحظ فوراً أن الردود تأتي من الجهاز المحلي دون أي طلبات خارجية.
للتحقق من أن النموذج يعمل محلياً:
curl http://localhost:11434/api/generate -d '{
"model": "qwen2.5",
"prompt": "مرحباً، كيف حالك؟",
"stream": false
}'
سيناريوهات عملية: متى تستخدم النموذج المحلي؟
سيناريو 1: المحامي أو الطبيب
تعمل مع ملفات عملاء سرية وتحتاج لتلخيصها أو صياغة رسائل منها. باستخدام Ollama مع أوبن كلاو (OpenClaw)، تبقى البيانات على جهازك تماماً:
/model ollama/qwen2.5
لخّص هذا العقد وأبرز أهم البنود...
[نص العقد السري]
سيناريو 2: الشركة بدون إنترنت مستقر
في مصانع أو مواقع إنشاء بعيدة، يعمل النظام على الشبكة الداخلية بدون الحاجة لإنترنت خارجي.
سيناريو 3: تقليل التكاليف للمهام الروتينية
استخدم النماذج المحلية للمهام البسيطة (تلخيص، تصنيف، رد آلي)، واحتفظ بـ Claude أو GPT-4 للمهام المعقدة التي تستحق التكلفة.
تحسين الأداء على أجهزة Apple Silicon
أجهزة Mac بمعالجات M1/M2/M3/M4 تعمل مع Ollama بكفاءة استثنائية بسبب بنية الذاكرة الموحدة (Unified Memory). للحصول على أفضل أداء:
# تفعيل استخدام GPU على Apple Silicon
OLLAMA_NUM_GPU=1 ollama serve
على MacBook Pro M3 بـ 18 غيغابايت RAM، نموذج Llama 3.1 (8B) يُنتج 40 إلى 60 رمزاً في الثانية، وهو سريع بما يكفي للاستخدام التفاعلي.
النماذج المحلية مقابل النماذج السحابية: مقارنة صريحة
| المعيار | نماذج محلية (Ollama) | نماذج سحابية (Claude/GPT) |
|---|---|---|
| الخصوصية | كاملة 100% | تخضع لسياسة المزود |
| التكلفة | صفر بعد الإعداد | اشتراك شهري أو رسوم API |
| الجودة | جيدة إلى ممتازة | ممتازة إلى استثنائية |
| السرعة | تعتمد على جهازك | ثابتة وعالية عموماً |
| التحديثات | يدوية | تلقائية دائماً |
| دعم العربية | متفاوت | ممتاز (خاصة Claude) |
| الإعداد | يتطلب جهداً أولياً | جاهز فوراً |
الخلاصة: النماذج المحلية ليست بديلاً كاملاً للنماذج السحابية، لكنها أداة قوية في المنظومة الصحيحة.
مقالات ذات صلة
- أمان وخصوصية بياناتك مع أوبن كلاو (OpenClaw)
- تثبيت أوبن كلاو على Linux
- كيف تبني مساعدك الشخصي الذكي
- أوبن كلاو للمطورين العرب
الأسئلة الشائعة
هل يمكن تشغيل Ollama مع أوبن كلاو على نفس الجهاز؟ نعم، هذا هو الإعداد الأكثر شيوعاً. أوبن كلاو يتصل بـ Ollama عبر localhost على المنفذ 11434، ولا يوجد أي تعارض بين البرنامجين.
ما الحد الأدنى للأجهزة لتشغيل نموذج مفيد؟ جهاز بـ 8 غيغابايت RAM يكفي لتشغيل نماذج حجم 7 إلى 8 مليارات معامل (7B/8B) بشكل مقبول. للاستخدام المريح والسريع، يُفضل 16 غيغابايت.
هل النماذج المحلية تدعم اللغة العربية جيداً؟ يتفاوت الدعم بين النماذج. Qwen 2.5 هو الأفضل حالياً للعربية بين النماذج مفتوحة المصدر، يليه Llama 3.1. نماذج Mistral أضعف نسبياً في العربية.
هل يمكن تشغيل أوبن كلاو مع Ollama على خادم VPS ومشاركته مع الفريق؟ نعم، يمكن تثبيت Ollama على خادم وربطه بنسخة أوبن كلاو (OpenClaw) المستضافة. بهذا يستفيد الفريق كله من النموذج المحلي دون أن يُثبت كل شخص النموذج على جهازه.
هل تحديث النموذج يلغي الإعدادات السابقة في أوبن كلاو؟
لا، تحديث النموذج عبر ollama pull يُحدّث الملفات فقط. إعدادات أوبن كلاو في ملف config.yaml تبقى كما هي ولا تتأثر.