نظرة عامة
يتكامل CrewAI مع مزودي LLM متعددين من خلال حزم SDK الأصلية للمزودين، مما يمنحك المرونة لاختيار النموذج المناسب لحالة الاستخدام الخاصة بك. سيساعدك هذا الدليل على فهم كيفية إعداد واستخدام مزودي LLM المختلفين في مشاريع CrewAI.ما هي نماذج اللغة الكبيرة؟
نماذج اللغة الكبيرة (LLMs) هي الذكاء الأساسي وراء وكلاء CrewAI. تمكّن الوكلاء من فهم السياق واتخاذ القرارات وتوليد استجابات شبيهة بالبشر. إليك ما تحتاج معرفته:أساسيات LLM
نماذج اللغة الكبيرة هي أنظمة ذكاء اصطناعي مدربة على كميات هائلة من البيانات النصية. تدعم ذكاء وكلاء CrewAI، مما يمكّنهم من فهم وتوليد نصوص شبيهة بالبشر.
نافذة السياق
تحدد نافذة السياق مقدار النص الذي يمكن لـ LLM معالجته في وقت واحد. النوافذ الأكبر (مثل 128K رمز) تتيح سياقًا أكثر لكنها قد تكون أكثر تكلفة وأبطأ.
درجة الحرارة
تتحكم درجة الحرارة (0.0 إلى 1.0) في عشوائية الاستجابة. القيم المنخفضة (مثل 0.2) تنتج مخرجات أكثر تركيزًا وحتمية، بينما القيم الأعلى (مثل 0.8) تزيد الإبداع والتنوع.
اختيار المزود
يقدم كل مزود LLM (مثل OpenAI و Anthropic و Google) نماذج مختلفة بقدرات وأسعار وميزات متفاوتة. اختر بناءً على احتياجاتك من الدقة والسرعة والتكلفة.
إعداد LLM الخاص بك
هناك أماكن مختلفة في كود CrewAI حيث يمكنك تحديد النموذج المُستخدم. بمجرد تحديد النموذج، ستحتاج إلى توفير الإعداد (مثل مفتاح API) لكل مزود نموذج تستخدمه. انظر قسم أمثلة إعداد المزودين لمزودك.- 1. متغيرات البيئة
- 2. إعداد YAML
- 3. كود مباشر
أبسط طريقة للبدء. عيّن النموذج في بيئتك مباشرة، من خلال ملف
.env أو في كود تطبيقك. إذا استخدمت crewai create لبدء مشروعك، سيكون مُعيّنًا بالفعل..env
يوفر CrewAI تكاملات SDK أصلية لـ OpenAI و Anthropic و Google (Gemini API) و Azure و AWS Bedrock — لا حاجة لتثبيت إضافي بخلاف الملحقات الخاصة بالمزود (مثل
uv add "crewai[openai]").جميع المزودين الآخرين مدعومون بواسطة LiteLLM. إذا كنت تخطط لاستخدام أي منهم، أضفه كتبعية لمشروعك:أمثلة إعداد المزودين
يدعم CrewAI العديد من مزودي LLM، كل منهم يقدم ميزات فريدة وطرق مصادقة وقدرات نماذج. في هذا القسم، ستجد أمثلة مفصلة تساعدك في اختيار وإعداد وتحسين LLM الأنسب لاحتياجات مشروعك.OpenAI
OpenAI
يوفر CrewAI تكاملًا أصليًا مع OpenAI من خلال OpenAI Python SDK.الاستخدام الأساسي:الإعداد المتقدم:المخرجات المهيكلة:متغيرات البيئة المدعومة:
Responses API:تقدم OpenAI واجهتي API: Chat Completions (الافتراضية) و Responses API الأحدث. تم تصميم Responses API من الأساس مع دعم أصلي متعدد الوسائط — النص والصور والصوت واستدعاءات الدوال كلها مكوّنات أساسية. توفر أداءً أفضل مع نماذج الاستدلال وتدعم ميزات إضافية مثل السلسلة التلقائية والأدوات المدمجة.معاملات Responses API:
Code
Code
Code
Code
OPENAI_API_KEY: مفتاح OpenAI API (مطلوب)OPENAI_BASE_URL: عنوان URL مخصص لـ OpenAI API (اختياري)
- دعم استدعاء الدوال الأصلي (باستثناء نماذج o1)
- مخرجات منظمة مع JSON schema
- دعم البث للاستجابات في الوقت الفعلي
- تتبع استخدام الرموز
- دعم تسلسلات التوقف (باستثناء نماذج o1)
- احتمالات السجل لرؤى على مستوى الرموز
- التحكم في جهد الاستدلال لنماذج o1
| النموذج | نافذة السياق | الأفضل لـ |
|---|---|---|
| gpt-4.1 | 1M tokens | أحدث نموذج بقدرات محسّنة |
| gpt-4.1-mini | 1M tokens | إصدار فعال بسياق كبير |
| gpt-4.1-nano | 1M tokens | متغير فائق الكفاءة |
| gpt-4o | 128,000 tokens | محسّن للسرعة والذكاء |
| gpt-4o-mini | 200,000 tokens | فعال من حيث التكلفة بسياق كبير |
| gpt-4-turbo | 128,000 tokens | المحتوى الطويل، تحليل المستندات |
| gpt-4 | 8,192 tokens | مهام الدقة العالية، الاستدلال المعقد |
| o1 | 200,000 tokens | الاستدلال المتقدم، حل المشكلات المعقدة |
| o1-preview | 128,000 tokens | معاينة قدرات الاستدلال |
| o1-mini | 128,000 tokens | نموذج استدلال فعال |
| o3-mini | 200,000 tokens | نموذج استدلال خفيف |
| o4-mini | 200,000 tokens | استدلال فعال من الجيل التالي |
Code
api: عيّن إلى"responses"لاستخدام Responses API (الافتراضي:"completions")instructions: تعليمات على مستوى النظام (Responses API فقط)store: ما إذا كان يجب تخزين الاستجابات للمحادثات متعددة الأدوارprevious_response_id: معرّف الاستجابة السابقة للمحادثات متعددة الأدوارinclude: بيانات إضافية لتضمينها في الاستجابة (مثل["reasoning.encrypted_content"])builtin_tools: قائمة أدوات OpenAI المدمجة:"web_search","file_search","code_interpreter","computer_use"parse_tool_outputs: إعادةResponsesAPIResultمنظمة مع مخرجات أدوات مدمجة محللةauto_chain: تتبع واستخدام معرّفات الاستجابة تلقائيًا للمحادثات متعددة الأدوارauto_chain_reasoning: تتبع عناصر الاستدلال المشفرة للامتثال لـ ZDR
Meta-Llama
Meta-Llama
توفر Meta Llama API الوصول إلى عائلة نماذج اللغة الكبيرة من Meta.
الـ API متاحة عبر Meta Llama API.
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:جميع النماذج المدرجة هنا https://llama.developer.meta.com/docs/models/ مدعومة.
ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
| معرّف النموذج | طول سياق الإدخال | طول سياق المخرجات | وسائط الإدخال | وسائط المخرجات |
|---|---|---|---|---|
meta_llama/Llama-4-Scout-17B-16E-Instruct-FP8 | 128k | 4028 | نص، صورة | نص |
meta_llama/Llama-4-Maverick-17B-128E-Instruct-FP8 | 128k | 4028 | نص، صورة | نص |
meta_llama/Llama-3.3-70B-Instruct | 128k | 4028 | نص | نص |
meta_llama/Llama-3.3-8B-Instruct | 128k | 4028 | نص | نص |
Anthropic
Anthropic
يوفر CrewAI تكاملًا أصليًا مع Anthropic من خلال Anthropic Python SDK.الاستخدام الأساسي:الإعداد المتقدم:التفكير الموسّع (Claude Sonnet 4 وما بعده):يدعم CrewAI ميزة التفكير الموسّع من Anthropic، التي تتيح لـ Claude التفكير في المشكلات بطريقة أكثر شبهًا بالبشر قبل الاستجابة. مفيد بشكل خاص لمهام الاستدلال والتحليل وحل المشكلات المعقدة.خيارات إعداد التفكير:
ملاحظة: لاستخدام Anthropic، ثبّت التبعيات المطلوبة:
Code
Code
Code
Code
type: عيّن إلى"enabled"لتفعيل وضع التفكير الموسّعbudget_tokens(اختياري): أقصى رموز للتفكير (يساعد في التحكم بالتكاليف)
claude-sonnet-4والنماذج الأحدثclaude-3-7-sonnet(مع قدرات التفكير الموسّع)
- الاستدلال المعقد وحل المشكلات متعددة الخطوات
- الحسابات الرياضية والبراهين
- تحليل الكود وتصحيح الأخطاء
- التخطيط الاستراتيجي واتخاذ القرارات
- البحث والمهام التحليلية
ANTHROPIC_API_KEY: مفتاح Anthropic API (مطلوب)
- دعم استخدام الأدوات الأصلي لنماذج Claude 3+
- دعم التفكير الموسّع لـ Claude Sonnet 4+
- دعم البث للاستجابات في الوقت الفعلي
- معالجة تلقائية لرسائل النظام
- تسلسلات التوقف للتحكم في المخرجات
- تتبع استخدام الرموز
- محادثات استخدام أدوات متعددة الأدوار
max_tokensمعامل مطلوب لجميع نماذج Anthropic- يستخدم Claude
stop_sequencesبدلاً منstop - يتم التعامل مع رسائل النظام بشكل منفصل عن رسائل المحادثة
- يجب أن تكون الرسالة الأولى من المستخدم (يتم التعامل معها تلقائيًا)
- يجب أن تتناوب الرسائل بين المستخدم والمساعد
| النموذج | نافذة السياق | الأفضل لـ |
|---|---|---|
| claude-sonnet-4 | 200,000 tokens | الأحدث مع قدرات التفكير الموسّع |
| claude-3-7-sonnet | 200,000 tokens | الاستدلال المتقدم والمهام الوكيلية |
| claude-3-5-sonnet-20241022 | 200,000 tokens | أحدث Sonnet بأفضل أداء |
| claude-3-5-haiku | 200,000 tokens | نموذج سريع وصغير للاستجابات السريعة |
| claude-3-opus | 200,000 tokens | الأكثر قدرة للمهام المعقدة |
| claude-3-sonnet | 200,000 tokens | توازن بين الذكاء والسرعة |
| claude-3-haiku | 200,000 tokens | الأسرع للمهام البسيطة |
| claude-2.1 | 200,000 tokens | سياق موسّع، هلوسات أقل |
| claude-2 | 100,000 tokens | نموذج متعدد الاستخدامات |
| claude-instant | 100,000 tokens | سريع وفعال من حيث التكلفة للمهام اليومية |
Google (Gemini API)
Google (Gemini API)
يوفر CrewAI تكاملًا أصليًا مع Google Gemini من خلال Google Gen AI Python SDK.عيّن مفتاح API في ملف الاستخدام الأساسي:الإعداد المتقدم:وضع Vertex AI Express (مصادقة بمفتاح API):يتيح لك وضع Vertex AI Express استخدام Vertex AI مع مصادقة بسيطة بمفتاح API بدلاً من بيانات اعتماد حساب الخدمة. هذه أسرع طريقة للبدء مع Vertex AI.لتفعيل وضع Express، عيّن متغيري البيئة في ملف ثم استخدم LLM كالمعتاد:إعداد Vertex AI (حساب خدمة):متغيرات البيئة المدعومة:
ملاحظة: لاستخدام Google Gemini، ثبّت التبعيات المطلوبة:القائمة الكاملة للنماذج متاحة في وثائق نماذج Gemini.
.env. إذا كنت بحاجة إلى مفتاح، تحقق من AI Studio..env
Code
Code
.env:.env
Code
للحصول على مفتاح API لوضع Express:
- مستخدمو Google Cloud الجدد: احصل على مفتاح API لوضع Express
- مستخدمو Google Cloud الحاليون: احصل على مفتاح Google Cloud API مرتبط بحساب خدمة
Code
GOOGLE_API_KEYأوGEMINI_API_KEY: مفتاح Google API (مطلوب لـ Gemini API ووضع Vertex AI Express)GOOGLE_GENAI_USE_VERTEXAI: عيّن إلىtrueلاستخدام Vertex AI (مطلوب لوضع Express)GOOGLE_CLOUD_PROJECT: معرّف مشروع Google Cloud (لـ Vertex AI مع حساب خدمة)GOOGLE_CLOUD_LOCATION: موقع GCP (الافتراضيus-central1)
- دعم استدعاء الدوال الأصلي لنماذج Gemini 1.5+ و 2.x
- دعم البث للاستجابات في الوقت الفعلي
- قدرات متعددة الوسائط (نص، صور، فيديو)
- إعداد إعدادات الأمان
- دعم لكل من Gemini API و Vertex AI
- معالجة تلقائية لتعليمات النظام
- تتبع استخدام الرموز
| النموذج | نافذة السياق | الأفضل لـ |
|---|---|---|
| gemini-2.5-flash | 1M tokens | التفكير التكيفي، كفاءة التكلفة |
| gemini-2.5-pro | 1M tokens | التفكير والاستدلال المحسّن، الفهم متعدد الوسائط |
| gemini-2.0-flash | 1M tokens | ميزات الجيل التالي، السرعة، التفكير |
| gemini-2.0-flash-thinking | 32,768 tokens | الاستدلال المتقدم مع عملية التفكير |
| gemini-2.0-flash-lite | 1M tokens | كفاءة التكلفة ووقت الاستجابة المنخفض |
| gemini-1.5-pro | 2M tokens | الأفضل أداءً، الاستدلال المنطقي، البرمجة |
| gemini-1.5-flash | 1M tokens | نموذج متعدد الوسائط متوازن، جيد لمعظم المهام |
| gemini-1.5-flash-8b | 1M tokens | الأسرع والأكثر كفاءة من حيث التكلفة |
| gemini-1.0-pro | 32,768 tokens | نموذج الجيل السابق |
Google (Vertex AI)
Google (Vertex AI)
احصل على بيانات الاعتماد من Google Cloud Console واحفظها في ملف JSON، ثم حمّلها بالكود التالي:مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
Code
Code
Azure
Azure
يوفر CrewAI تكاملًا أصليًا مع Azure AI Inference و Azure OpenAI من خلال Azure AI Inference Python SDK.الاستخدام الأساسي:ملاحظة: لاستخدام Azure AI Inference، ثبّت التبعيات المطلوبة:
Code
Code
AWS Bedrock
AWS Bedrock
يوفر CrewAI تكاملًا أصليًا مع AWS Bedrock من خلال boto3 SDK باستخدام Converse API.الاستخدام الأساسي:الإعداد المتقدم:متغيرات البيئة المدعومة:
ملاحظة: لاستخدام AWS Bedrock، ثبّت التبعيات المطلوبة:
Code
Code
Code
AWS_ACCESS_KEY_ID: مفتاح وصول AWS (مطلوب)AWS_SECRET_ACCESS_KEY: مفتاح AWS السري (مطلوب)AWS_SESSION_TOKEN: رمز جلسة AWS لبيانات الاعتماد المؤقتة (اختياري)AWS_DEFAULT_REGION: منطقة AWS (الافتراضيus-east-1)AWS_REGION_NAME: منطقة AWS (الافتراضيus-east-1). إعداد بديل للتوافق مع LiteLLM
- دعم استدعاء الأدوات الأصلي عبر Converse API
- استجابات بث وبدون بث
- معالجة أخطاء شاملة مع منطق إعادة المحاولة
- إعداد حواجز الحماية لتصفية المحتوى
- معاملات خاصة بالنموذج عبر
additional_model_request_fields - تتبع استخدام الرموز وتسجيل سبب التوقف
- دعم جميع نماذج Bedrock الأساسية
- معالجة تلقائية لتنسيق المحادثة
- يستخدم Converse API الحديث للوصول الموحد للنماذج
- معالجة تلقائية لمتطلبات المحادثة الخاصة بالنموذج
- يتم التعامل مع رسائل النظام بشكل منفصل عن المحادثة
- يجب أن تكون الرسالة الأولى من المستخدم (يتم التعامل معها تلقائيًا)
- بعض النماذج (مثل Cohere) تتطلب أن تنتهي المحادثة برسالة المستخدم
| النموذج | نافذة السياق | الأفضل لـ |
|---|---|---|
| Amazon Nova Pro | حتى 300k tokens | أداء عالٍ، نموذج يوازن بين الدقة والسرعة والفعالية من حيث التكلفة عبر مهام متنوعة. |
| Amazon Nova Micro | حتى 128k tokens | نموذج نصي فقط عالي الأداء وفعال من حيث التكلفة ومحسّن لأقل وقت استجابة. |
| Amazon Nova Lite | حتى 300k tokens | معالجة متعددة الوسائط بأسعار معقولة للصور والفيديو والنص مع قدرات في الوقت الفعلي. |
| Claude 3.7 Sonnet | حتى 128k tokens | الأفضل أداءً للاستدلال المعقد والبرمجة ووكلاء الذكاء الاصطناعي |
| Claude 3.5 Sonnet v2 | حتى 200k tokens | نموذج متطور متخصص في هندسة البرمجيات والقدرات الوكيلية والتفاعل مع الحاسوب بتكلفة محسّنة. |
| Claude 3.5 Sonnet | حتى 200k tokens | نموذج عالي الأداء يقدم ذكاءً واستدلالًا فائقين عبر مهام متنوعة مع توازن مثالي بين السرعة والتكلفة. |
| Claude 3.5 Haiku | حتى 200k tokens | نموذج متعدد الوسائط سريع وصغير محسّن للاستجابات السريعة والتفاعلات الشبيهة بالبشر |
| Claude 3 Sonnet | حتى 200k tokens | نموذج متعدد الوسائط يوازن بين الذكاء والسرعة للنشر بكميات كبيرة. |
| Claude 3 Haiku | حتى 200k tokens | نموذج متعدد الوسائط صغير وسريع محسّن للاستجابات السريعة والتفاعلات المحادثية الطبيعية |
| Claude 3 Opus | حتى 200k tokens | أكثر النماذج متعددة الوسائط تقدمًا يتفوق في المهام المعقدة بالاستدلال الشبيه بالبشر والفهم السياقي الفائق. |
| Claude 2.1 | حتى 200k tokens | إصدار محسّن بنافذة سياق موسّعة وموثوقية محسّنة وهلوسات أقل لتطبيقات النصوص الطويلة وRAG |
| Claude | حتى 100k tokens | نموذج متعدد الاستخدامات يتفوق في الحوار المتقدم والمحتوى الإبداعي واتباع التعليمات الدقيقة. |
| Claude Instant | حتى 100k tokens | نموذج سريع وفعال من حيث التكلفة للمهام اليومية مثل الحوار والتحليل والتلخيص والأسئلة والأجوبة |
| Llama 3.1 405B Instruct | حتى 128k tokens | نموذج LLM متقدم لتوليد البيانات الاصطناعية والتقطير والاستدلال لروبوتات المحادثة والبرمجة والمهام المتخصصة. |
| Llama 3.1 70B Instruct | حتى 128k tokens | يدعم المحادثات المعقدة مع فهم سياقي فائق واستدلال وتوليد نص. |
| Llama 3.1 8B Instruct | حتى 128k tokens | نموذج متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| Llama 3 70B Instruct | حتى 8k tokens | يدعم المحادثات المعقدة مع فهم سياقي فائق واستدلال وتوليد نص. |
| Llama 3 8B Instruct | حتى 8k tokens | نموذج LLM متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| Titan Text G1 - Lite | حتى 4k tokens | نموذج خفيف وفعال من حيث التكلفة محسّن لمهام اللغة الإنجليزية والضبط الدقيق مع التركيز على التلخيص وتوليد المحتوى. |
| Titan Text G1 - Express | حتى 8k tokens | نموذج متعدد الاستخدامات لمهام اللغة العامة والمحادثة وتطبيقات RAG مع دعم الإنجليزية وأكثر من 100 لغة. |
| Cohere Command | حتى 4k tokens | نموذج متخصص في اتباع أوامر المستخدم وتقديم حلول عملية للمؤسسات. |
| Jurassic-2 Mid | حتى 8,191 tokens | نموذج فعال من حيث التكلفة يوازن بين الجودة والسعر لمهام اللغة المتنوعة مثل الأسئلة والأجوبة والتلخيص وتوليد المحتوى. |
| Jurassic-2 Ultra | حتى 8,191 tokens | نموذج لتوليد النص المتقدم والفهم، يتفوق في المهام المعقدة مثل التحليل وإنشاء المحتوى. |
| Jamba-Instruct | حتى 256k tokens | نموذج بنافذة سياق موسّعة محسّن لتوليد النص الفعال من حيث التكلفة والتلخيص والأسئلة والأجوبة. |
| Mistral 7B Instruct | حتى 32k tokens | نموذج LLM يتبع التعليمات ويكمل الطلبات ويولد نصًا إبداعيًا. |
| Mistral 8x7B Instruct | حتى 32k tokens | نموذج LLM بمعمارية MOE يتبع التعليمات ويكمل الطلبات ويولد نصًا إبداعيًا. |
| DeepSeek R1 | 32,768 tokens | نموذج استدلال متقدم |
Amazon SageMaker
Amazon SageMaker
Code
Code
Mistral
Mistral
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
Nvidia NIM
Nvidia NIM
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:يوفر Nvidia NIM مجموعة شاملة من النماذج لحالات الاستخدام المتنوعة، من المهام ذات الأغراض العامة إلى التطبيقات المتخصصة.
ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
| النموذج | نافذة السياق | الأفضل لـ |
|---|---|---|
| nvidia/mistral-nemo-minitron-8b-8k-instruct | 8,192 tokens | نموذج لغة صغير متطور يقدم دقة فائقة لروبوتات المحادثة والمساعدين الافتراضيين وتوليد المحتوى. |
| nvidia/nemotron-4-mini-hindi-4b-instruct | 4,096 tokens | نموذج لغة صغير ثنائي اللغة هندي-إنجليزي للاستدلال على الجهاز، مصمم خصيصًا للغة الهندية. |
| nvidia/llama-3.1-nemotron-70b-instruct | 128k tokens | مخصص لتعزيز فائدة الاستجابات |
| nvidia/llama3-chatqa-1.5-8b | 128k tokens | نموذج LLM متقدم لتوليد استجابات عالية الجودة ومدركة للسياق لروبوتات المحادثة ومحركات البحث. |
| nvidia/llama3-chatqa-1.5-70b | 128k tokens | نموذج LLM متقدم لتوليد استجابات عالية الجودة ومدركة للسياق لروبوتات المحادثة ومحركات البحث. |
| nvidia/vila | 128k tokens | نموذج رؤية-لغة متعدد الوسائط يفهم النص والصور والفيديو وينشئ استجابات غنية بالمعلومات |
| nvidia/neva-22 | 4,096 tokens | نموذج رؤية-لغة متعدد الوسائط يفهم النص والصور ويولد استجابات غنية بالمعلومات |
| nvidia/nemotron-mini-4b-instruct | 8,192 tokens | مهام ذات أغراض عامة |
| nvidia/usdcode-llama3-70b-instruct | 128k tokens | نموذج LLM متطور يجيب على استعلامات معرفة OpenUSD ويولد كود USD-Python. |
| nvidia/nemotron-4-340b-instruct | 4,096 tokens | ينشئ بيانات اصطناعية متنوعة تحاكي خصائص بيانات العالم الحقيقي. |
| meta/codellama-70b | 100k tokens | نموذج LLM قادر على توليد الكود من اللغة الطبيعية والعكس. |
| meta/llama2-70b | 4,096 tokens | نموذج لغة كبير متطور قادر على توليد النص والكود استجابة للمطالبات. |
| meta/llama3-8b-instruct | 8,192 tokens | نموذج LLM متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| meta/llama3-70b-instruct | 8,192 tokens | يدعم المحادثات المعقدة مع فهم سياقي فائق واستدلال وتوليد نص. |
| meta/llama-3.1-8b-instruct | 128k tokens | نموذج متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| meta/llama-3.1-70b-instruct | 128k tokens | يدعم المحادثات المعقدة مع فهم سياقي فائق واستدلال وتوليد نص. |
| meta/llama-3.1-405b-instruct | 128k tokens | نموذج LLM متقدم لتوليد البيانات الاصطناعية والتقطير والاستدلال لروبوتات المحادثة والبرمجة والمهام المتخصصة. |
| meta/llama-3.2-1b-instruct | 128k tokens | نموذج لغة صغير متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| meta/llama-3.2-3b-instruct | 128k tokens | نموذج لغة صغير متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| meta/llama-3.2-11b-vision-instruct | 128k tokens | نموذج لغة صغير متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| meta/llama-3.2-90b-vision-instruct | 128k tokens | نموذج لغة صغير متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| google/gemma-7b | 8,192 tokens | نموذج متطور لتوليد النص وفهمه وتحويله وتوليد الكود. |
| google/gemma-2b | 8,192 tokens | نموذج متطور لتوليد النص وفهمه وتحويله وتوليد الكود. |
| google/codegemma-7b | 8,192 tokens | نموذج متطور مبني على Gemma-7B من Google متخصص في توليد الكود وإكماله. |
| google/codegemma-1.1-7b | 8,192 tokens | نموذج برمجة متقدم لتوليد الكود وإكماله والاستدلال واتباع التعليمات. |
| google/recurrentgemma-2b | 8,192 tokens | نموذج لغة بمعمارية تكرارية جديدة لاستدلال أسرع عند توليد تسلسلات طويلة. |
| google/gemma-2-9b-it | 8,192 tokens | نموذج متطور لتوليد النص وفهمه وتحويله وتوليد الكود. |
| google/gemma-2-27b-it | 8,192 tokens | نموذج متطور لتوليد النص وفهمه وتحويله وتوليد الكود. |
| google/gemma-2-2b-it | 8,192 tokens | نموذج متطور لتوليد النص وفهمه وتحويله وتوليد الكود. |
| google/deplot | 512 tokens | نموذج فهم لغة بصرية بلقطة واحدة يترجم صور الرسوم البيانية إلى جداول. |
| google/paligemma | 8,192 tokens | نموذج لغة بصري بارع في استيعاب مدخلات النص والصور لإنتاج استجابات غنية بالمعلومات. |
| mistralai/mistral-7b-instruct-v0.2 | 32k tokens | نموذج LLM يتبع التعليمات ويكمل الطلبات ويولد نصًا إبداعيًا. |
| mistralai/mixtral-8x7b-instruct-v0.1 | 8,192 tokens | نموذج LLM بمعمارية MOE يتبع التعليمات ويكمل الطلبات ويولد نصًا إبداعيًا. |
| mistralai/mistral-large | 4,096 tokens | ينشئ بيانات اصطناعية متنوعة تحاكي خصائص بيانات العالم الحقيقي. |
| mistralai/mixtral-8x22b-instruct-v0.1 | 8,192 tokens | ينشئ بيانات اصطناعية متنوعة تحاكي خصائص بيانات العالم الحقيقي. |
| mistralai/mistral-7b-instruct-v0.3 | 32k tokens | نموذج LLM يتبع التعليمات ويكمل الطلبات ويولد نصًا إبداعيًا. |
| nv-mistralai/mistral-nemo-12b-instruct | 128k tokens | أكثر نموذج لغة تقدمًا للاستدلال والبرمجة والمهام متعددة اللغات؛ يعمل على وحدة GPU واحدة. |
| mistralai/mamba-codestral-7b-v0.1 | 256k tokens | نموذج للكتابة والتفاعل مع الكود عبر مجموعة واسعة من لغات البرمجة والمهام. |
| microsoft/phi-3-mini-128k-instruct | 128K tokens | نموذج LLM مفتوح خفيف ومتطور مع مهارات قوية في الرياضيات والاستدلال المنطقي. |
| microsoft/phi-3-mini-4k-instruct | 4,096 tokens | نموذج LLM مفتوح خفيف ومتطور مع مهارات قوية في الرياضيات والاستدلال المنطقي. |
| microsoft/phi-3-small-8k-instruct | 8,192 tokens | نموذج LLM مفتوح خفيف ومتطور مع مهارات قوية في الرياضيات والاستدلال المنطقي. |
| microsoft/phi-3-small-128k-instruct | 128K tokens | نموذج LLM مفتوح خفيف ومتطور مع مهارات قوية في الرياضيات والاستدلال المنطقي. |
| microsoft/phi-3-medium-4k-instruct | 4,096 tokens | نموذج LLM مفتوح خفيف ومتطور مع مهارات قوية في الرياضيات والاستدلال المنطقي. |
| microsoft/phi-3-medium-128k-instruct | 128K tokens | نموذج LLM مفتوح خفيف ومتطور مع مهارات قوية في الرياضيات والاستدلال المنطقي. |
| microsoft/phi-3.5-mini-instruct | 128K tokens | نموذج LLM خفيف متعدد اللغات يدعم تطبيقات الذكاء الاصطناعي في البيئات المحدودة بالكمون والذاكرة والحوسبة |
| microsoft/phi-3.5-moe-instruct | 128K tokens | نموذج LLM متقدم يعتمد على معمارية خليط الخبراء لتوليد محتوى فعال حوسبيًا |
| microsoft/kosmos-2 | 1,024 tokens | نموذج متعدد الوسائط رائد مصمم لفهم العناصر المرئية في الصور والاستدلال عليها. |
| microsoft/phi-3-vision-128k-instruct | 128k tokens | نموذج متعدد الوسائط مفتوح متطور يتفوق في الاستدلال عالي الجودة من الصور. |
| microsoft/phi-3.5-vision-instruct | 128k tokens | نموذج متعدد الوسائط مفتوح متطور يتفوق في الاستدلال عالي الجودة من الصور. |
| databricks/dbrx-instruct | 12k tokens | نموذج LLM للأغراض العامة بأداء متطور في فهم اللغة والبرمجة وRAG. |
| snowflake/arctic | 1,024 tokens | يقدم استدلالًا عالي الكفاءة لتطبيقات المؤسسات مع التركيز على توليد SQL والبرمجة. |
| aisingapore/sea-lion-7b-instruct | 4,096 tokens | نموذج LLM لتمثيل وخدمة التنوع اللغوي والثقافي لجنوب شرق آسيا |
| ibm/granite-8b-code-instruct | 4,096 tokens | نموذج LLM لبرمجة البرمجيات لتوليد الكود وإكماله وشرحه والتحويل متعدد الأدوار. |
| ibm/granite-34b-code-instruct | 8,192 tokens | نموذج LLM لبرمجة البرمجيات لتوليد الكود وإكماله وشرحه والتحويل متعدد الأدوار. |
| ibm/granite-3.0-8b-instruct | 4,096 tokens | نموذج لغة صغير متقدم يدعم RAG والتلخيص والتصنيف والكود والذكاء الاصطناعي الوكيلي |
| ibm/granite-3.0-3b-a800m-instruct | 4,096 tokens | نموذج خليط خبراء عالي الكفاءة لـ RAG والتلخيص واستخراج الكيانات والتصنيف |
| mediatek/breeze-7b-instruct | 4,096 tokens | ينشئ بيانات اصطناعية متنوعة تحاكي خصائص بيانات العالم الحقيقي. |
| upstage/solar-10.7b-instruct | 4,096 tokens | يتفوق في مهام NLP، خاصة في اتباع التعليمات والاستدلال والرياضيات. |
| writer/palmyra-med-70b-32k | 32k tokens | نموذج LLM رائد للاستجابات الدقيقة والمناسبة للسياق في المجال الطبي. |
| writer/palmyra-med-70b | 32k tokens | نموذج LLM رائد للاستجابات الدقيقة والمناسبة للسياق في المجال الطبي. |
| writer/palmyra-fin-70b-32k | 32k tokens | نموذج LLM متخصص في التحليل المالي وإعداد التقارير ومعالجة البيانات |
| 01-ai/yi-large | 32k tokens | نموذج قوي مدرب على الإنجليزية والصينية لمهام متنوعة بما في ذلك روبوتات المحادثة والكتابة الإبداعية. |
| deepseek-ai/deepseek-coder-6.7b-instruct | 2k tokens | نموذج برمجة قوي يقدم قدرات متقدمة في توليد الكود وإكماله وملء الفراغات |
| rakuten/rakutenai-7b-instruct | 1,024 tokens | نموذج LLM متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| rakuten/rakutenai-7b-chat | 1,024 tokens | نموذج LLM متطور مع فهم اللغة واستدلال فائق وتوليد النص. |
| baichuan-inc/baichuan2-13b-chat | 4,096 tokens | يدعم المحادثة بالصينية والإنجليزية والبرمجة والرياضيات واتباع التعليمات وحل الألغاز |
Local NVIDIA NIM Deployed using WSL2
Local NVIDIA NIM Deployed using WSL2
يتيح لك NVIDIA NIM تشغيل نماذج LLM قوية محليًا على جهاز Windows باستخدام WSL2 (نظام Windows الفرعي لـ Linux).
يتيح لك هذا النهج الاستفادة من وحدة GPU من NVIDIA لاستدلال ذكاء اصطناعي خاص وآمن وفعال من حيث التكلفة دون الاعتماد على الخدمات السحابية.
مثالي لسيناريوهات التطوير والاختبار أو الإنتاج حيث تكون خصوصية البيانات أو القدرات غير المتصلة مطلوبة.إليك دليلًا خطوة بخطوة لإعداد نموذج NVIDIA NIM محلي:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
- اتبع تعليمات التثبيت من موقع NVIDIA
- ثبّت النموذج المحلي. لـ Llama 3.1-8b اتبع التعليمات
- أعدّ نماذج crewai المحلية:
Code
Groq
Groq
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:
ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
| النموذج | نافذة السياق | الأفضل لـ |
|---|---|---|
| Llama 3.1 70B/8B | 131,072 tokens | مهام عالية الأداء بسياق كبير |
| Llama 3.2 Series | 8,192 tokens | مهام ذات أغراض عامة |
| Mixtral 8x7B | 32,768 tokens | أداء متوازن وسياق جيد |
IBM watsonx.ai
IBM watsonx.ai
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
Ollama (نماذج LLM محلية)
Ollama (نماذج LLM محلية)
- ثبّت Ollama: ollama.ai
- شغّل نموذجًا:
ollama run llama3 - أعدّ:
Code
Fireworks AI
Fireworks AI
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
Perplexity AI
Perplexity AI
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
Hugging Face
Hugging Face
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
SambaNova
SambaNova
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:
ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
| النموذج | نافذة السياق | الأفضل لـ |
|---|---|---|
| Llama 3.1 70B/8B | حتى 131,072 tokens | مهام عالية الأداء بسياق كبير |
| Llama 3.1 405B | 8,192 tokens | أداء عالٍ وجودة مخرجات |
| Llama 3.2 Series | 8,192 tokens | مهام عامة ومتعددة الوسائط |
| Llama 3.3 70B | حتى 131,072 tokens | أداء عالٍ وجودة مخرجات |
| Qwen2 familly | 8,192 tokens | أداء عالٍ وجودة مخرجات |
Cerebras
Cerebras
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
ميزات Cerebras:
- سرعات استدلال عالية
- أسعار تنافسية
- توازن جيد بين السرعة والجودة
- دعم نوافذ سياق طويلة
Open Router
Open Router
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
نماذج Open Router:
- openrouter/deepseek/deepseek-r1
- openrouter/deepseek/deepseek-chat
Nebius AI Studio
Nebius AI Studio
عيّن متغيرات البيئة التالية في ملف مثال الاستخدام في مشروع CrewAI:ملاحظة: يستخدم هذا المزود LiteLLM. أضفه كتبعية لمشروعك:
.env:Code
Code
ميزات Nebius AI Studio:
- مجموعة كبيرة من النماذج مفتوحة المصدر
- حدود معدل أعلى
- أسعار تنافسية
- توازن جيد بين السرعة والجودة
بث الاستجابات
يدعم CrewAI بث الاستجابات من LLMs، مما يتيح لتطبيقك تلقي ومعالجة المخرجات في الوقت الفعلي فور توليدها.- الإعداد الأساسي
- معالجة الأحداث
- تتبع Agent والمهمة
فعّل البث بتعيين معامل عند تفعيل البث، يتم تسليم الاستجابات في أجزاء فور توليدها، مما يخلق تجربة مستخدم أكثر استجابة.
stream إلى True عند تهيئة LLM:استدعاءات LLM غير المتزامنة
يدعم CrewAI استدعاءات LLM غير المتزامنة لأداء وتزامن محسّنين في سير عمل الذكاء الاصطناعي. تتيح لك الاستدعاءات غير المتزامنة تشغيل طلبات LLM متعددة بشكل متزامن دون حجب، مما يجعلها مثالية لتطبيقات الإنتاجية العالية وعمليات الوكلاء المتوازية.- الاستخدام الأساسي
- مع البث
استخدم دالة تدعم دالة
acall لطلبات LLM غير المتزامنة:acall جميع المعاملات نفسها كدالة call المتزامنة، بما في ذلك الرسائل والأدوات ودوال الاسترجاع.استدعاءات LLM المهيكلة
يدعم CrewAI الاستجابات المهيكلة من استدعاءات LLM من خلال السماح لك بتحديدresponse_format باستخدام نموذج Pydantic. يمكّن هذا الإطار من تحليل المخرجات والتحقق منها تلقائيًا، مما يسهّل دمج الاستجابة في تطبيقك دون معالجة لاحقة يدوية.
Code
الميزات المتقدمة والتحسين
تعلّم كيفية الاستفادة القصوى من إعداد LLM:إدارة نافذة السياق
إدارة نافذة السياق
يتضمن CrewAI ميزات إدارة سياق ذكية:
أفضل الممارسات لإدارة السياق:
- اختر نماذج بنوافذ سياق مناسبة
- عالج المدخلات الطويلة مسبقًا عند الإمكان
- استخدم التقسيم للمستندات الكبيرة
- راقب استخدام الرموز لتحسين التكاليف
تحسين الأداء
تحسين الأداء
تحسين استخدام الرموز
اختر نافذة السياق المناسبة لمهمتك:
- المهام الصغيرة (حتى 4K رمز): النماذج القياسية
- المهام المتوسطة (بين 4K-32K): النماذج المحسّنة
- المهام الكبيرة (أكثر من 32K): نماذج السياق الكبير
تذكّر مراقبة استخدام الرموز بانتظام وضبط إعداداتك حسب الحاجة لتحسين التكاليف والأداء.
إسقاط المعاملات الإضافية
إسقاط المعاملات الإضافية
يستخدم CrewAI داخليًا حزم SDK أصلية لاستدعاءات LLM، مما يتيح لك إسقاط معاملات إضافية غير مطلوبة لحالة الاستخدام الخاصة بك. يمكن أن يساعد هذا في تبسيط كودك وتقليل تعقيد إعداد LLM.
معترضات النقل
معترضات النقل
يوفر CrewAI معترضات رسائل لعدة مزودين، مما يتيح لك الربط بدورات الطلب/الاستجابة على مستوى طبقة النقل.المزودون المدعومون:ملاحظات مهمة:
- OpenAI
- Anthropic
- يجب على كلتا الدالتين إعادة الكائن المستلم أو نوعه.
- تعديل الكائنات المستلمة قد يؤدي إلى سلوك غير متوقع أو أعطال في التطبيق.
- ليس كل المزودين يدعمون المعترضات — تحقق من قائمة المزودين المدعومين أعلاه
تعمل المعترضات على مستوى طبقة النقل. مفيدة بشكل خاص لـ:
- تحويل الرسائل وتصفيتها
- تصحيح تفاعلات API
المشاكل الشائعة والحلول
- المصادقة
- أسماء النماذج
- طول السياق
