نظرة عامة
يدعم CrewAI مسارين للاتصال بمزودي LLM:- التكاملات الأصلية — اتصالات SDK مباشرة مع OpenAI وAnthropic وGoogle Gemini وAzure OpenAI وAWS Bedrock
- LiteLLM كاحتياط — طبقة ترجمة تدعم أكثر من 100 مزود إضافي
لماذا إزالة LiteLLM؟
- تقليل سطح الاعتماديات — حزم أقل تعني مخاطر أقل محتملة في سلسلة التوريد
- أداء أفضل — تتواصل حزم SDK الأصلية مباشرة مع واجهات برمجة تطبيقات المزودين، مما يلغي طبقة الترجمة
- تصحيح أخطاء أبسط — طبقة تجريد واحدة أقل بين كودك والمزود
- حجم تثبيت أصغر — يجلب LiteLLM العديد من الاعتماديات العابرة
المزودون الأصليون (لا يحتاجون LiteLLM)
هؤلاء المزودون يستخدمون حزم SDK الخاصة بهم ويعملون بدون تثبيت LiteLLM:OpenAI
GPT-4o، GPT-4o-mini، o1، o3-mini، والمزيد.
Anthropic
Claude Sonnet، Claude Haiku، والمزيد.
Google Gemini
Gemini 2.0 Flash، Gemini 2.0 Pro، والمزيد.
Azure OpenAI
نماذج OpenAI المستضافة على Azure.
AWS Bedrock
Claude، Llama، Titan، والمزيد عبر AWS.
إذا كنت تستخدم المزودين الأصليين فقط، فلن تحتاج أبداً لتثبيت
crewai[litellm]. حزمة crewai الأساسية بالإضافة إلى الإضافة الخاصة بالمزود الذي اخترته هي كل ما تحتاجه.كيفية التحقق مما إذا كنت تستخدم LiteLLM
تحقق من سلاسل النماذج الخاصة بك
إذا كان كودك يستخدم بادئات النماذج هذه، فأنت تمرر عبر LiteLLM:| البادئة | المزود | يستخدم LiteLLM؟ |
|---|---|---|
ollama/ | Ollama | ✅ نعم |
groq/ | Groq | ✅ نعم |
together_ai/ | Together AI | ✅ نعم |
mistral/ | Mistral | ✅ نعم |
cohere/ | Cohere | ✅ نعم |
huggingface/ | Hugging Face | ✅ نعم |
openai/ | OpenAI | ❌ أصلي |
anthropic/ | Anthropic | ❌ أصلي |
gemini/ | Google Gemini | ❌ أصلي |
azure/ | Azure OpenAI | ❌ أصلي |
bedrock/ | AWS Bedrock | ❌ أصلي |
تحقق مما إذا كان LiteLLM مثبتاً
تحقق من اعتمادياتك
انظر إلى ملفpyproject.toml الخاص بك بحثاً عن crewai[litellm]:
دليل الانتقال
الخطوة 1: حدد مزودك الحالي
ابحث عن جميع استدعاءاتLLM() وسلاسل النماذج في كودك:
الخطوة 2: انتقل إلى مزود أصلي
- الانتقال إلى OpenAI
- الانتقال إلى Anthropic
- الانتقال إلى Gemini
- الانتقال إلى Azure OpenAI
- الانتقال إلى AWS Bedrock
الخطوة 3: الاحتفاظ بـ Ollama بدون LiteLLM
إذا كنت تستخدم Ollama وتريد الاستمرار في استخدامه، يمكنك الاتصال عبر واجهة برمجة تطبيقات Ollama المتوافقة مع OpenAI:الخطوة 4: تحديث إعدادات YAML
الخطوة 5: إزالة LiteLLM
بمجرد انتقال جميع مراجع النماذج الخاصة بك:الخطوة 6: التحقق
شغّل مشروعك وتأكد من أن كل شيء يعمل:مرجع سريع: خريطة سلاسل النماذج
فيما يلي مسارات الانتقال الشائعة من المزودين المعتمدين على LiteLLM إلى المزودين الأصليين:الأسئلة الشائعة
هل أفقد أي وظائف بإزالة LiteLLM؟
هل أفقد أي وظائف بإزالة LiteLLM؟
لا، إذا كنت تستخدم أحد المزودين الخمسة المدعومين أصلياً (OpenAI، Anthropic، Gemini، Azure، Bedrock). تدعم هذه التكاملات الأصلية جميع ميزات CrewAI بما في ذلك البث واستدعاء الأدوات والمخرجات المنظمة والمزيد. ستفقد فقط الوصول إلى المزودين المتاحين حصرياً عبر LiteLLM (مثل Groq وTogether AI وMistral كمزودين من الدرجة الأولى).
هل يمكنني استخدام عدة مزودين أصليين في نفس الوقت؟
هل يمكنني استخدام عدة مزودين أصليين في نفس الوقت؟
نعم. ثبّت إضافات متعددة واستخدم مزودين مختلفين لوكلاء مختلفين:
هل LiteLLM آمن للاستخدام الآن؟
هل LiteLLM آمن للاستخدام الآن؟
بغض النظر عن حالة العزل، فإن تقليل سطح اعتمادياتك يُعد ممارسة أمنية جيدة. إذا كنت تحتاج فقط مزودين يدعمهم CrewAI أصلياً، فلا يوجد سبب لإبقاء LiteLLM مثبتاً.
ماذا عن متغيرات البيئة مثل OPENAI_API_KEY؟
ماذا عن متغيرات البيئة مثل OPENAI_API_KEY؟
يستخدم المزودون الأصليون نفس متغيرات البيئة التي اعتدت عليها. لا حاجة لتغييرات على
OPENAI_API_KEY أو ANTHROPIC_API_KEY أو GEMINI_API_KEY وغيرها.موارد ذات صلة
- اتصالات LLM — الدليل الكامل لربط CrewAI مع أي LLM
- مفاهيم LLM — فهم نماذج اللغة الكبيرة في CrewAI
- دليل اختيار LLM — اختيار النموذج المناسب لحالة استخدامك
