الانتقال إلى المحتوى الرئيسي

ربط CrewAI بنماذج اللغة الكبيرة

يتصل CrewAI بنماذج اللغة الكبيرة من خلال تكاملات SDK الأصلية لأكثر المزودين شيوعاً (OpenAI وAnthropic وGoogle Gemini وAzure وAWS Bedrock)، ويستخدم LiteLLM كاحتياط مرن لجميع المزودين الآخرين.
افتراضياً، يستخدم CrewAI نموذج gpt-4o-mini. يتم تحديد ذلك بواسطة متغير البيئة OPENAI_MODEL_NAME، الذي يكون قيمته الافتراضية “gpt-4o-mini” إذا لم يتم تعيينه. يمكنك بسهولة إعداد وكلائك لاستخدام نموذج أو مزود مختلف كما هو موضح في هذا الدليل.

المزودون المدعومون

يدعم LiteLLM مجموعة واسعة من المزودين، بما في ذلك على سبيل المثال لا الحصر:
  • OpenAI
  • Anthropic
  • Google (Vertex AI, Gemini)
  • Azure OpenAI
  • AWS (Bedrock, SageMaker)
  • Cohere
  • VoyageAI
  • Hugging Face
  • Ollama
  • Mistral AI
  • Replicate
  • Together AI
  • AI21
  • Cloudflare Workers AI
  • DeepInfra
  • Groq
  • SambaNova
  • Nebius AI Studio
  • NVIDIA NIMs
  • والمزيد!
للحصول على قائمة كاملة ومحدثة بالمزودين المدعومين، يرجى الرجوع إلى وثائق مزودي LiteLLM.
لاستخدام أي مزود غير مغطى بتكامل أصلي، أضف LiteLLM كاعتمادية لمشروعك:
uv add 'crewai[litellm]'
يستخدم المزودون الأصليون (OpenAI، Anthropic، Google Gemini، Azure، AWS Bedrock) إضافات SDK الخاصة بهم — راجع أمثلة إعداد المزودين.

تغيير نموذج اللغة الكبير

لاستخدام LLM مختلف مع وكلاء CrewAI، لديك عدة خيارات:
مرر اسم النموذج كسلسلة نصية عند تهيئة الوكيل:
from crewai import Agent

# Using OpenAI's GPT-4
openai_agent = Agent(
    role='OpenAI Expert',
    goal='Provide insights using GPT-4',
    backstory="An AI assistant powered by OpenAI's latest model.",
    llm='gpt-4'
)

# Using Anthropic's Claude
claude_agent = Agent(
    role='Anthropic Expert',
    goal='Analyze data using Claude',
    backstory="An AI assistant leveraging Anthropic's language model.",
    llm='claude-2'
)

خيارات الإعداد

عند إعداد LLM لوكيلك، يمكنك الوصول إلى مجموعة واسعة من المعاملات:
المعاملالنوعالوصف
modelstrاسم النموذج المراد استخدامه (مثل “gpt-4”، “claude-2”)
temperaturefloatيتحكم في العشوائية في المخرجات (0.0 إلى 1.0)
max_tokensintالحد الأقصى لعدد الرموز المولدة
top_pfloatيتحكم في تنوع المخرجات (0.0 إلى 1.0)
frequency_penaltyfloatيعاقب الرموز الجديدة بناءً على تكرارها في النص حتى الآن
presence_penaltyfloatيعاقب الرموز الجديدة بناءً على وجودها في النص حتى الآن
stopstr, List[str]تسلسل(ات) لإيقاف التوليد
base_urlstrعنوان URL الأساسي لنقطة نهاية API
api_keystrمفتاح API الخاص بك للمصادقة
للحصول على قائمة كاملة بالمعاملات وأوصافها، راجع وثائق فئة LLM.

الاتصال بنماذج LLM المتوافقة مع OpenAI

يمكنك الاتصال بنماذج LLM المتوافقة مع OpenAI باستخدام متغيرات البيئة أو عن طريق تعيين خصائص محددة في فئة LLM:
import os

os.environ["OPENAI_API_KEY"] = "your-api-key"
os.environ["OPENAI_API_BASE"] = "https://api.your-provider.com/v1"
os.environ["OPENAI_MODEL_NAME"] = "your-model-name"

استخدام النماذج المحلية مع Ollama

للنماذج المحلية مثل تلك التي يوفرها Ollama:
2

سحب النموذج المطلوب

على سبيل المثال، شغّل ollama pull llama3.2 لتحميل النموذج.
3

إعداد وكيلك

    agent = Agent(
        role='Local AI Expert',
        goal='Process information using a local model',
        backstory="An AI assistant running on local hardware.",
        llm=LLM(model="ollama/llama3.2", base_url="http://localhost:11434")
    )

تغيير عنوان URL الأساسي لـ API

يمكنك تغيير عنوان URL الأساسي لـ API لأي مزود LLM عن طريق تعيين معامل base_url:
Code
llm = LLM(
    model="custom-model-name",
    base_url="https://api.your-provider.com/v1",
    api_key="your-api-key"
)
agent = Agent(llm=llm, ...)
هذا مفيد بشكل خاص عند العمل مع واجهات برمجة تطبيقات متوافقة مع OpenAI أو عندما تحتاج إلى تحديد نقطة نهاية مختلفة للمزود الذي اخترته.

الخاتمة

من خلال الاستفادة من LiteLLM، يوفر CrewAI تكاملاً سلساً مع مجموعة واسعة من نماذج اللغة الكبيرة. تتيح لك هذه المرونة اختيار النموذج الأنسب لاحتياجاتك المحددة، سواء كنت تعطي الأولوية للأداء أو كفاءة التكلفة أو النشر المحلي. تذكر الرجوع إلى وثائق LiteLLM للحصول على أحدث المعلومات حول النماذج المدعومة وخيارات الإعداد.